![Études digitales. 2020 – 1, n° 9. Capitalocène et plateformes. Hommage à Bernard Stiegler - The fight against hate content on the Internet](https://classiques-garnier.com/images/Vignette/EdgMS09b.png)
The fight against hate content on the Internet The former article 1, paragraph II of the Avia law in light of the question of liability
- Publication type: Journal article
- Journal: Études digitales
2020 – 1, n° 9. Capitalocène et plateformes. Hommage à Bernard Stiegler - Author: Blandin (Annie)
- Pages: 253 to 258
- Journal: Digital Studies
La loi visant à lutter contre les contenus haineux sur Internet
L’article premier paragraphe I
à la lumière de la question de la responsabilité
Sans doute peut-on adhérer à l’affirmation selon laquelle « la nouveauté, la différence, la spécificité de la période actuelle, ce n’est pas la violence, mais c’est la haine et pire, la haine générale », comme l’écrit Alain Duhamel1.
C’est dans un contexte de grande tension liée au mauvais usage des réseaux sociaux qu’en mars 2019 était déposée une proposition de loi de lutte contre les contenus haineux sur Internet, dite PPL Avia du nom de son auteur, la députée Laeticia Avia2. Nous sacrifions ici à l’usage qui veut que bien sûr, rien dans nos propos ne vise à remettre en cause la légitimité de l’intention incarnée par cette proposition.
Soumise néanmoins à de nombreuses critiques3, cette proposition avait été largement amendée par le Sénat avant qu’une proposition ne soit adoptée par l’Assemblée nationale en nouvelle lecture le 22 janvier 2020, suite à l’échec de la commission mixte paritaire. La loi avait alors été adoptée en mai4.
Renouant avec la version d’origine, le texte sera finalement jugé pour l’essentiel contraire à la Constitution5. Nous ne livrons pas ici une analyse de la décision du Conseil constitutionnel mais proposons une mise en perspective en présentant ce qui avait été notre raisonnement avant l’intervention du Conseil. La convergence est grande même si on 254peut regretter que la question de la responsabilité n’ait pas été abordée directement de manière à en tirer toutes les conséquences. C’est l’objet principal de cet article.
La loi Avia modifiait l’article 6 de la loi sur la confiance dans l’économie numérique (LCEN) par un article premier. Dans son paragraphe II, celui-ci prévoyait l’obligation de retrait des contenus haineux par les plateformes (au-delà d’un certain seuil en nombre de connexions) dans un délai de 24 heures sous peine de sanction6. L’article premier ayant été au cœur du débat entre l’Assemblée et le Sénat et l’objet principal des différentes critiques, il nous paraît utile de le replacer dans son contexte juridique. Nous laisserons délibérément de côté la position de la Commission européenne sur la compatibilité du texte avec le droit de l’Union européenne, dans la mesure où elle ne concerne pas directement le point abordé ici7.
La LCEN, transposant la directive e-commerce de 2001, prévoit un régime de responsabilité limitée pour les intermédiaires techniques de l’Internet. Si ceux-ci ont connaissance de l’existence d’un contenu illégal et qu’ils ne font rien pour le retirer ou en rendre l’accès impossible, ils peuvent alors être tenus pour responsables sur le plan pénal comme civil. La mise en connaissance répond à des critères formels très stricts.
La LCEN prévoit donc les conditions dans lesquelles la responsabilité des intermédiaires peut être engagée. Si celles-ci sont réunies, c’est au juge qu’il appartient de se déterminer sur la responsabilité et sa mise en œuvre. Ajoutons que cette règle ne joue qu’à l’égard des contenus manifestement illicites. Lorsque le juge intervient et sous réserve que les conditions de la responsabilité soient réunies, il applique le droit commun de la responsabilité. Il est utile de le rappeler.
Si une plateforme est tenue pour responsable, elle pourra par exemple être condamnée pour contrefaçon si elle a hébergé un contenu sans autorisation des ayants droits. Ainsi, dans la célèbre affaire Joyeux Noël, le juge statuant en première instance, avait condamné l’hébergeur Dailymotion pour contrefaçon, car en fournissant à l’internaute les moyens de diffuser ce film, il avait commis une faute (il en a été décidé autrement par la suite)8.
255Au juge de statuer sur la faute commise (ou le délit) et dans le même temps de prescrire éventuellement une obligation de retrait ou de blocage de l’accès.
Si la LCEN, à l’article 6-1, prévoit une obligation de retrait dans des cas précis, rien ne permet d’affirmer que cette même solution doive être étendue à l’article 6. L’obligation de retrait concerne exclusivement les nécessités de la lutte contre le terrorisme et de la protection des mineurs et c’est à l’autorité administrative qu’appartient la décision de demande de retrait.
Pourtant, l’article premier de la loi Avia était à mi-chemin entre les deux approches ; il ne se contentait pas d’énoncer les conditions d’engagement de la responsabilité des intermédiaires mais fixait une véritable obligation de retrait en créant par voie de conséquence un délit de non retrait.
On comprend que l’objectif était de responsabiliser les plateformes. Ce faisant, la loi Avia reconnaissait implicitement qu’elles remplissent une fonction éditoriale à minima (à défaut d’être des éditeurs, ce que l’on peut soutenir) comme l’indique le rapport de Benoît Loutrel au terme de la mission dite Facebook9.
Par ailleurs, la loi prenait acte du fait que les plateformes modèrent les contenus. Elles réalisent cette opération sur la base de leurs conditions générales d’utilisation, en évitant de mettre en place une surveillance généralisée qui serait contraire à la LCEN.
Modérer n’est toutefois pas réguler. Or, la loi semblait confondre les deux notions en demandant aux plateformes de retirer des contenus sous peine de sanctions. C’est une forme de délégation de fonctions de régulation ou judiciaires et c’est ce rôle escamoté du juge qui constitue la clé de voûte de la décision du Conseil constitutionnel10. Sans doute peut-on y voir aussi une forme de renoncement, comme si on se défaussait sur les plateformes. Le cas de la jeune Mila, harcelée et même menacée de mort sur les réseaux sociaux, en est la preuve. La plateforme n’a pu endiguer la haine dont elle est la victime. Et rares sont ceux qui sont venus soutenir Mila de manière inconditionnelle, en affirmant haut et fort le principe de la liberté d’expression11.
256Il est clair en tout cas que par cette obligation de retrait, on cherche à trouver une solution face à la massification des contenus haineux et au sous-équipement de la justice. Mais il est tout aussi évident que la décision de retrait peut s’analyser comme étant une sanction, prononcée sans respect du contradictoire, quand bien même la loi prévoit l’intervention du juge a posteriori.
Comment apprécier cette solution ? La question de la constitutionnalité se posait avec évidence et nous l’avions très tôt relevé. La décision Hadopi12 constituait à cet égard une référence même si dans la décision Avia, elle n’inspire que le rappel du rôle de l’accès à Internet pour la liberté d’expression. On rappellera, à propos de la loi Hadopi, que le juge constitutionnel avait établi qu’on ne pouvait conférer à une autorité administrative indépendante le pouvoir de couper l’accès à Internet, dès lors que la liberté d’expression était en jeu et cela, quelles que soient les garanties prévues. À plus forte raison, peut-on déléguer le pouvoir de retrait à des entreprises privées qui de surcroît n’offrent aucune garantie d’indépendance et encore moins de probité ?
Non seulement, elles sont en permanence sous le feu du contentieux et de critiques, qu’il s’agisse de conditions générales d’utilisation invalidées par le juge à plusieurs reprises ou encore de failles de sécurité massives. Mais elles se livrent également à des pratiques d’optimisation fiscale agressives.
À cela s’ajoute le fait que le travail de modération qualifié à juste titre de commercial repose13, certes en partie sur des algorithmes, mais là n’est pas le pire car derrière les écrans, il y a des êtres humains. Ceux-ci sont placés dans des conditions de travail qui portent atteinte à leur dignité, à leur santé, sans compter la précarité de ces emplois.
Enfin, les plateformes sont juges et parties dans la mesure où ce sont elles qui conçoivent les systèmes qui vont mettre en avant des contenus, susciter des comportements haineux. Or, c’est dans ce contexte que Facebook a annoncé vouloir créer une sorte de Cour suprême chargée de statuer sur les litiges relatifs à la modération des contenus. Effet inattendu des démarches visant à responsabiliser davantage les plateformes, effet rebond, réponse du berger à la bergère ? La confusion entre 257fonctions régaliennes et économiques est à son comble au moment où les plateformes empiètent sans vergogne sur les prérogatives de l’État14.
On pourrait même dire que les réseaux sont juges et juges. Ils se comportent comme des tribunaux populaires dès que l’occasion se présente. À cet égard, il n’est pas neutre que l’on personnifie les réseaux sociaux lorsqu’on constate qu’ils condamnent ceci ou cela. « C’est qui les réseaux sociaux ? », cette question est souvent posée. En confiant à leurs dirigeants le soin de réguler les contenus, on boucle la boucle et on raisonne donc en circuit fermé.
Plutôt que de concentrer la critique de la loi sur des arguments prospectifs du type : « les plateformes risquent de sur-bloquer, de porter atteinte à la liberté d’expression », ce qui alimente la charge émotionnelle qui entoure ce débat, concentrons-nous sur les principes juridiques.
À lire de nombreux commentaires, tout se passe comme si la liberté d’expression ne devait bénéficier qu’aux victimes du mode proposé de régulation des contenus, en raison des risques de sur-blocage ou de mauvaise appréciation de la notion de contenus haineux. Or, ce sont les personnes visées par la haine qui sont les premières privées de leur liberté d’expression. Il en résulte que le traitement du problème de la haine en ligne suppose de concilier la liberté d’expression des uns avec celle des autres. Force est de constater que ce n’est pas prioritairement sous cet angle que sont vues les choses.
Par ailleurs, avant d’établir les modalités de lutte contre la haine, peut-être serait-il raisonnable d’attendre la modification du régime de responsabilité des acteurs de l’Internet, qui est inéluctable. On voit bien où est l’intérêt des grandes plateformes lorsqu’elles défendent leur régime aménagé de responsabilité. Il a souvent été dit que si on abandonnait ce régime, cela ferait peser une charge trop lourde sur les entreprises concernées, de sorte qu’elles s’adonneraient à une surveillance généralisée. Mais n’est-ce pas tout simplement à elles de tirer les conséquences de l’application d’un régime de responsabilité de droit commun, quitte à modifier leurs systèmes, ce qui est au fond une des voies proposées par le Sénat lorsqu’il veut lutter contre la viralité. Il est permis de le penser dans la mesure où le régime de responsabilité 258aménagée n’est pas étranger à la manière dont les réseaux sociaux se sont développés.
Traiter les racines du mal, y compris du point de vue de la structure si peu concurrentielle du marché, est en tout cas un préalable.
Il apparaît à ce titre que l’argumentaire de la Commission européenne, non favorable à la proposition de loi, paraît bien faible compte tenu des enjeux. Qu’avons-nous à faire en effet des problèmes de restrictions potentielles à la libre prestation de services que l’obligation de retrait pourrait occasionner ? Nous n’avons qu’assez protégé les grandes plateformes.
Enfin, s’agissant de la liberté d’expression, il conviendrait tout simplement de se conformer au modèle bi-séculaire de régulation de la liberté d’expression, avec constatation d’un abus et sanction par le juge en tant que garant des libertés fondamentales.
C’est désormais au niveau européen, dans le cadre de la préparation du Digital Services Act, que cette question va être traitée.
Annie Blandin
Professeur à l’IMT Atlantique
Membre du Comité National
du Numérique
1 Alain Duhamel, « Le triomphe de la haine en politique », Libération, 9 janvier 2019.
2 Proposition de loi visant à lutter contre la haine sur Internet, no 1785, déposé(e) le 20 mars 2019.
3 Voir notamment position du Conseil national du numérique : https://cnnumerique.fr/CP_regulation_contenus_haineux
4 L. no 2020-766, 24 juin 2020.
5 Cons. Const. 18 juin 2020, no 2020-801 DC, JO 25 juin.
6 Il s’agit des plateformes dont l’activité dépasse un seuil en nombre de connexions fixé par décret.
7 Émission d’observations prévues à l’article 5, par. 2 de la directive (UE) 2015/1535 du 9 septembre 2015, COM (2019) 8585 final du 22.11.2019.
8 Civ. 1re, 17 février 2011, pourvoi no 09-67896.
9 https://www.numerique.gouv.fr/uploads/rapport-mission-regulation-reseaux-sociaux.pdf
10 Jean-Sébastien Mariez, Laura Godfrin, « Censure de la “loi Avia” par le Conseil constitutionnel : un fil rouge pour les législateurs français et européens ? », Dalloz actualité, 29 juin 2020.
11 Mona Ozouf, « Dans un pays laïque, le blasphème n’existe pas », C à vous, France 5, 7 février 2020.
12 Décision 2009-580 DC du 10 juin 2009.
13 Sarah T. Roberts, Behind the screen, content moderation in the shadows of social media, Yale University Press, London, 2019.
14 Salwa Toko, Gilles Babinet, Charles-Pierre Astolfi, Annie Blandin-Obernesser, Myriam El Andaloussi, Philippine Régniez, « Il faut poser des limites aux géants du numérique pour sanctuariser les activités assumées par les États », Le Monde, 2 septembre 2019.
- CLIL theme: 3157 -- SCIENCES HUMAINES ET SOCIALES, LETTRES -- Lettres et Sciences du langage -- Sciences de l'information et de la communication
- ISBN: 978-2-406-11521-2
- EAN: 9782406115212
- ISSN: 2497-1650
- DOI: 10.48611/isbn.978-2-406-11521-2.p.0253
- Publisher: Classiques Garnier
- Online publication: 05-26-2021
- Periodicity: Biannual
- Language: French
- Keyword: platforms, regulation, hate speech, liability