Aller au contenu

Classiques Garnier

La protection de l’individu face à l'automatisation de la présentation des contenus par les plateformes

  • Type de publication : Article de revue
  • Revue : Études digitales
    2019 – 2, n° 8
    . Les plateformes
  • Auteurs : Blandin (Annie), Lehagre (Élisabeth)
  • Résumé : Les algorithmes jouent un rôle essentiel dans un accès « calculé » aux contenus disponibles sur les plateformes. Le RGPD offre une protection aux personnes faisant l’objet de décisions individuelles automatisées. Si les algorithmes de traitement de contenus entrent dans cette catégorie, les droits qui en découlent peinent à s’exercer et ne doivent leur effectivité qu’à la régulation des plateformes sur le fondement des principes de loyauté et de transparence.
  • Pages : 27 à 39
  • Revue : Études digitales
  • Thème CLIL : 3157 -- SCIENCES HUMAINES ET SOCIALES, LETTRES -- Lettres et Sciences du langage -- Sciences de l'information et de la communication
  • EAN : 9782406104971
  • ISBN : 978-2-406-10497-1
  • ISSN : 2497-1650
  • DOI : 10.15122/isbn.978-2-406-10497-1.p.0027
  • Éditeur : Classiques Garnier
  • Mise en ligne : 15/06/2020
  • Périodicité : Semestrielle
  • Langue : Français
  • Mots-clés : Régulation, contenus en ligne, décisions automatisées, plateformes
27

La protection de lindividu face
à lautomatisation de la présentation des contenus par les plateformes

Introduction

Dans une société de plus en plus numérisée, les algorithmes occupent une place qui ne cesse de croître. Intégrés à des systèmes automatisés exécutés par des ordinateurs puissants, ils traitent de grandes masses de données et produisent des résultats dont les impacts sur les personnes et sur leurs vies ne cessent de sétendre, à mesure que linteraction avec ces systèmes sinscrit comme une évidence du quotidien.

Ces algorithmes interviennent notamment dans un accès « calculé » aux contenus disponibles sur le web via des plateformes devenues incontournables (GAFA). Ils permettent de filtrer et sélectionner des contenus, ordonner des réponses à une recherche, faire des recommandations de produits ou de connexions sociales, calculer un score, prédire un événement ou un risque1.

Les plateformes ont largement recours à ce type dalgorithmes pour optimiser leur modèle basé sur lexploitation massive de données et la personnalisation des contenus grâce, notamment, à des systèmes algorithmiques dapprentissage machine. Les individus sont au cœur du fonctionnement de ces systèmes, que ce soit pour fournir directement ou indirectement les données qui les alimentent ou pour permettre lindividualisation des services qui leur sont proposés. Le RGPD2 sattache à protéger les individus au regard des données personnelles traitées et 28prévoit également, dans ce cadre, une protection particulière des personnes faisant lobjet de décisions individuelles automatisées. Larticle 22 du RGPD interdit en effet de telles décisions, sauf exception où la personne concernée bénéficie alors de droits spécifiques dont celui dêtre informé de la logique du traitement automatisé qui lui est appliqué. Il existe un lien entre la notion de décision automatisée et celle de profilage telle quelle est définie à larticle 4 du RGPD. Le profilage est souvent un préalable à la décision mais celle-ci peut aussi être prise de manière autonome comme cest le cas pour les systèmes de détection des infractions au Code de la route.

Face à des algorithmes qui nous « construisent », sélectionnent et hiérarchisent linformation, anticipent nos souhaits et orientent nos préférences3, ce texte offre-t-il une protection susceptible de répondre aux enjeux tant individuels que sociétaux qui se font jour ? Dans quelle mesure un algorithme de traitement de contenus peut-il fonder une décision individuelle automatisée au sens de larticle 22 du RGPD et permettre aux personnes qui en sont lobjet, dexercer leurs droits ? Dans une première partie, nous verrons que la qualification de décision automatisée pour les algorithmes de traitement de contenus demeure incertaine. À supposer que telle soit leur qualification, elle est alors génératrice de droits, lesquels peinent cependant à sexercer et ne gagnent leur effectivité que dans le cadre plus large de la régulation des plateformes (partie II).

La qualification incertaine de lalgorithme de traitement de contenus comme décision individuelle automatisée
au sens de larticle 22 du RGPD

Pour être qualifié de décision individuelle automatisée au sens de larticle 22 du RGPD, un algorithme de traitement de contenus doit pouvoir être considéré comme (1) constituant une décision fondée sur un traitement automatisé de données à caractère personnel et (2) produisant 29des effets juridiques ou dimportance similaire sur la personne qui en est lobjet. Ce nest quà ces conditions quun individu pourra prétendre exercer les droits attachés à ce type de décisions.

La reconnaissance induite de lalgorithme de traitement
de contenus comme agent et fondement exclusif
de la décision individuelle automatisée

Aucune précision nest donnée sur la notion de décision, que ce soit sur ce qui la caractérise ou sa forme dexpression. La décision relève-t-elle dun attribut exclusivement humain ou est-il possible denvisager que des algorithmes prennent également des décisions directement appliquées aux personnes ? Il ne semble pas extravagant de laffirmer au regard de lexemple visé au Considérant 71 du RGPD qui présente le rejet automatique dune demande de crédit en ligne comme pouvant constituer une décision individuelle automatisée. Dans ce cas, le traitement automatisé fonde non seulement la décision mais en est également lexpression directe auprès de la personne qui en est lobjet. Les algorithmes pourraient donc prendre des décisions4 traduites par les résultats quils produisent à lissue dun processus décisionnel automatisé, notamment pour les algorithmes dapprentissage machine qui apprennent à déterminer leurs paramètres de fonctionnement sur la base des données quils traitent.

Toutefois, les algorithmes de traitement de contenus sont le plus souvent perçus comme des outils daide à la décision qui, dans ce contexte, ne pourrait être quhumaine. Or, en « choisissant » de présenter tel contenu plutôt que tel autre ou dans tel ordre, une décision algorithmique est bien réalisée. Elle se substitue à la décision humaine à ce premier niveau daccès à linformation, la décision humaine « aidée » intervenant dans un second temps, sur la base des résultats produits.

Selon cette hypothèse, la décision algorithmique de traitement de contenus de premier niveau est directement appliquée à la personne, sans intervention humaine5 pour évaluer et contrôler lopportunité de la décision de présentation des contenus qui est prise. De plus, pour 30présenter des contenus de plus en plus personnalisés, les algorithmes sont amenés à traiter des données à caractère personnel, notamment à des fins de profilage, pour ensuite appliquer leurs résultats de manière ciblée. Ainsi, de la même manière quun algorithme va décider lattribution ou non dun prêt au regard de caractéristiques et critères appliqués à la personne qui en fait la demande, lalgorithme de traitement de contenus va décider de la présentation ou hiérarchisation de linformation avec cette même approche individualisée.

Cette approche algorithmique de la décision permet de considérer que lalgorithme de traitement de contenus peut prendre une décision fondée exclusivement sur un traitement automatisé au sens de larticle 22, sans toutefois préjuger des effets sur les personnes. Encore faut-il que cette décision produise des « effets juridiques » ou significatifs « de façon similaire » pour être qualifiée de décision individuelle automatisée.

Lappréhension aléatoire des effets produits
par les algorithmes de traitement de contenus sur
les personnes au regard de limprécision de larticle 22 du RGPD

En visant le plus souvent la personnalisation des contenus proposés, les algorithmes contribuent à la construction dun profil probabiliste de lindividu, indépendamment de sa singularité réelle, créant un double automatisé6. Les traits de personnalités, les centres dintérêt et les envies artificiellement déduits par lalgorithme seront ceux considérés pour le traitement des contenus et leur présentation aux personnes ou plutôt à la projection automatisée de ces dernières, sans quelles en aient réellement conscience7. Cela contribuerait à lenfermement informationnel et « lisolement intellectuel » de lindividu dans une « bulle de filtres » ne lui donnant accès quà des contenus optimisés pour répondre à ses goûts et attentes supposés8. Des études tendent cependant à montrer que cette bulle existerait plus du fait des choix des personnes elles-mêmes face à une variété de contenus disponibles9. Il nen demeure pas moins que 31cet enfermement relatif participe à un conditionnement plus global où dautres facteurs contextuels entrent en compte. Lubiquité des interactions avec des outils de traitement de contenus imperceptibles aboutit à une utilisation généralisée sans réelle conscience des individus. En outre, les algorithmes qui « décident » des contenus présentés ne sont pas neutres10. Ils résultent dune conception, dune programmation qui va traduire la vision et les objectifs des plateformes commerciales qui les mettent en œuvre pour proposer leurs services. Cette force de frappe globalisée et orientée participe à la construction et à la représentation de soi, jusquau risque de nous soumettre à ce que la machine pense de nous et de sy adapter en anticipant sa logique décisionnelle pour nous profiler11.

La question est dès lors de savoir dans quelle mesure ces effets produits par la décision algorithmique de traitement de contenus peuvent se traduire en « effets juridiques » mentionnés à larticle 22 ?

Il est, là encore, à déplorer le manque de clarté sur les circonstances qui produisent les effets juridiques visés. Les lignes directrices du G29 précisent que des effets juridiques sont produits dès lors que les droits juridiques dune personne, son statut juridique ou ses droits en vertu dun contrat sont affectés.

Du fait des effets particuliers des algorithmes de traitement de contenus sur le rapport à soi, il nest pas étonnant que les droits pouvant être affectés tendent à être évalués au regard des libertés et droits fondamentaux des personnes. Ainsi, une étude du Conseil de lEurope sur les algorithmes et les droits humains12 évoque le risque datteinte à la liberté dexpression et au droit à linformation des personnes découlant du filtrage des informations à grande échelle. Cependant, malgré leur nature juridique, la portée de ces principes semble devoir rester limitée à défaut dune traduction légale spécifique adaptée aux décisions algorithmiques de traitement de contenus. Les questions qui se posent 32en matière de discrimination illustrent bien la difficulté à appréhender la nature juridique des effets des algorithmes de contenus, que ce soit au regard du principe général de non-discrimination garanti au niveau constitutionnel et international13 ou des cas de discrimination plus spécifiquement prévus par la loi14. Les algorithmes sont par nature discriminants dès lors quils classent, hiérarchisent, sélectionnent des contenus sur la base de profils personnalisés. Ils sont également susceptibles de reproduire des biais15. Des différences de traitement dans la présentation de contenus en raison de critères, réels ou supposés, tels que lapparence, la croyance, lâge ou le sexe peuvent donc en découler. Or le caractère souvent imperceptible, indirect et généralement non intentionnel des discriminations générées16 et des différences de traitement dans laccès ou la présentation de contenus, non spécifiquement visées par la loi (comme la différenciation tarifaire), rendent difficile la qualification juridique systématique et précise de ces effets. Cette situation invite donc à sintéresser plus particulièrement au caractère significatif « de manière similaire » des effets des décisions algorithmiques de traitement de contenus.

Pour tenter de comprendre ce que de tels effets recouvrent, les lignes directrices du G29 indiquent quils doivent revêtir un niveau dimportance similaire aux effets juridiques, cest-à-dire affecter « de manière significative la situation, le comportement ou les choix des personnes » ou, dans les cas les plus extrêmes, conduire à « lexclusion ou la discrimination ». Le RGPD cite en exemple le rejet automatique dune demande de crédit mais les lignes directrices font également référence au cas moins évident de la publicité en ligne. Une approche au cas par cas, prenant en compte tant les effets produits par la décision que les méthodes employées pour y aboutir, est retenue. Les effets peuvent ainsi revêtir une importance significative lorsque les procédés utilisés 33pour le profilage sont particulièrement intrusifs, touche aux attentes et souhaits ou vulnérabilités spécifiques des personnes visées.

Laccès personnalisé à des contenus via des critères exécutés automatiquement par les algorithmes peut orienter et influencer les comportements et les choix opérés par les personnes et ce notamment du fait de lexploitation des caractéristiques identifiées et associées à des personnes, les rendant plus réceptives, si ce nest plus vulnérables, aux informations diffusées (comme le suivi des sites consultés qui peut révéler une sensibilité particulière pour certaines causes). Ces effets nont rien de triviaux mais force est de constater que leur importance est aussi dépendante du contexte dans lequel interviennent les décisions qui les produisent. Difficile de dissocier limpact de ces algorithmes du caractère dominant des plateformes qui présentent la grande majorité des contenus, lexploitation massive des données, notamment personnelles, par ces mêmes plateformes et lutilisation répétée des outils de présentation de contenus qui, par accumulation, vont produire un effet significatif dans la durée.

Limprécision du texte de larticle 22 (1) du RGPD laisse donc la porte ouverte à une interprétation suffisamment large pour considérer comme possible la qualification des algorithmes de traitement de contenus comme décision individuelle automatisée, dès lors que sinscrit dans lévaluation des effets produits sur lindividu le contexte plus global dans lequel la décision intervient. A contrario, cette même imprécision permet une interprétation proportionnellement restrictive qui, à défaut de précisions jurisprudentielles ou légales, noffre pas de sécurité juridique quant à lexercice des droits attachés aux décisions individuelles automatisées et tout particulièrement sous la forme dalgorithmes de traitement de contenus.

Une qualification de décision automatisée,
génératrice de droits

Si au regard de larticle 22 du RGPD la qualification de lalgorithme de traitement de contenus comme décision individuelle automatisée 34entraîne la reconnaissance de droits pour les personnes qui en sont lobjet, lexercice réel et isolé de ces droits paraît toutefois limité (1), leur effectivité semblant liée à la régulation plus spécifique des plateformes dans leur fonction dintermédiation (2).

Le difficile exercice des droits attachés aux décisions individuelles automatisées de traitement de contenus
par leurs destinataires

Larticle 22 (1) pose un principe général dinterdiction des décisions individuelles automatisées. La portée de cette interdiction est toutefois largement atténuée par les exceptions visées à larticle 22 (2) qui autorisent le recours à de telles décisions lorsque cela est nécessaire à la conclusion et à lexécution dun contrat, est autorisé par le droit interne et/ou est fondé sur le consentement explicite de la personne concernée.

Dans ces cas, sont associés à la décision individuelle automatisée les droits, pour la personne qui en fait lobjet, dobtenir une intervention humaine, dexprimer son point de vue et de contester la décision. Le responsable de traitement devra de son côté mettre en œuvre « des mesures appropriées pour la sauvegarde des droits et libertés et des intérêts légitimes » des personnes, notamment en garantissant le possible exercice des droits précités auxquels sajoutent un droit dinformation préalable et un droit daccès aux « informations utiles concernant la logique sous-jacente, ainsi que limportance et les conséquences prévues de ce traitement ». Sans entrer dans le détail de la question largement débattue de savoir si larticle 22 offre un droit à lexplication ou simplement dinformation17, cest la possibilité même dexercer ces droits qui interroge.

En effet, la difficile appréhension de ce qui constitue une décision individuelle automatisée autorise des interprétations variées, si ce nest contradictoires, pour les cas les moins évidents comme le recours à des systèmes de décisions automatisées pour le traitement de contenus. Cela est dautant plus problématique lorsque lexercice potentiel des droits attachés à une décision individuelle automatisée dépend largement de 35linformation préalable du recours à une telle décision. Or cette information ne sera donnée par le responsable de traitement que dans la mesure où ce dernier aura considéré que le système quil met en place correspond bien à une décision individuelle automatisée. Linformation de la personne dépend donc de linterprétation ex ante du responsable de traitement dont on peut penser quelle nira pas spontanément vers une interprétation extensive couvrant les décisions algorithmiques de contenus.

Les droits attachés à une décision individuelle automatisée existent et peuvent être exercés indépendamment dune information préalable mais la réalité pratique de la mise en œuvre des décisions algorithmiques de contenus et notamment de profilage, est que ces traitements sont le plus souvent imperceptibles pour les personnes qui en font lobjet. En outre, quand bien même un individu serait conscient du recours à une décision individuelle automatisée, à charge pour lui de le démontrer ce qui, sans accès aux informations relatives aux modalités de fonctionnement des systèmes utilisés souvent protégées par le secret, se révèle une tâche particulièrement coûteuse et difficile à entreprendre. Enfin, on peut également sinterroger sur la concrétisation du droit à une intervention humaine dans le cadre de lapplication des décisions algorithmiques de traitement de contenus.

Tout cela amène à sinterroger sur lutilité juridique même de larticle 22 du RGPD permettant de garantir lexercice des droits en cas de décisions prises par des algorithmes de traitement de contenus. Il est dès lors à craindre que labsence dapplication par les juridictions et autorités de protection des données personnelles de larticle 22 reste comparable à celle de feu larticle 15 de la Directive 95/46/CE18, quil reproduit de manière quasi-identique. Cela prive dune garantie juridique qui, bien que liée au traitement de données personnelles, serait susceptible de couvrir de manière étendue la variété des effets produits par les décisions algorithmiques de traitement de contenus. Il semble toutefois quest privilégiée une approche réglementaire plus sectorielle centrée sur les obligations de transparence et de loyauté des plateformes.

Leffectivité des droits attachés à cette qualification de décision automatisée dépend dans une certaine mesure de la régulation des plateformes qui est elle-même source de nouveaux droits. La régulation 36des plateformes repose sur des règles de fond en pleine évolution mais nécessite aussi un renouvellement de certains moyens de la régulation.

Des droits dont leffectivité dépend
de la régulation des plateformes

Il convient en premier lieu de sinterroger sur lactivité de la plateforme quand elle présente le contenu de telle ou telle façon. Derrière la prise de décision automatisée, il y a en effet une activité, soit dintermédiation technique, soit éditoriale. Il est à noter que bien sûr la préférence des plateformes va à la qualification dintermédiation technique car cest elle qui offre le régime de responsabilité le plus favorable, en loccurrence celui de la responsabilité limitée ou aménagée prévue par la loi pour la confiance dans léconomie numérique. Si lon se fonde sur le raisonnement de la Cour de Cassation dans laffaire « Joyeux Noël19 », force est de constater que même des activités qui semblent à première vue de nature éditoriale sont ramenées à leur dimension technique. Si lon comprend que le réencodage de nature à assurer la compatibilité de la vidéo à linterface de visualisation soit une opération technique, il paraît moins évident que ce soit le cas de la mise en place de cadres de présentation et de la mise à disposition doutils de classification des contenus, quand bien même ils seraient justifiés par la seule nécessité de rationaliser lorganisation du service et den faciliter laccès à lutilisateur.

Ce même flottement apparaît dans le rapport « Créer un cadre français de responsabilisation des réseaux sociaux : agir en France avec une ambition européenne » qui fait état dune fonction éditoriale des réseaux sociaux20 . La notion reste ambiguë car elle nest pas supposée fonder une responsabilité éditoriale. Les auteurs du rapport écrivent ainsi : « le constat de lexistence de cette fonction dordonnancement des contenus, qui constitue une forme déditorialisation de fait ne saurait remettre en cause le statut juridique de ces acteurs, ni conduire, à les requalifier en éditeurs dès lors que la majorité des services de réseau social nopère pas de sélection préalable à la publication des contenus ».

Cette distinction entre intermédiation technique et édition na de sens que par rapport à la détermination du régime de responsabilité. 37En revanche, cest bien lintermédiation par elle-même qui fonde les obligations de loyauté et de transparence qui incombent aux plateformes définies par référence à leur fonction dintermédiation.

Ces obligations de loyauté et de transparence constituent un pilier important de la régulation des plateformes. Telle quappréhendée dans le cadre des états généraux des nouvelles régulations numériques lancés par le gouvernement français en juillet 2018 (Mounir Mahjoubi), cette régulation comprend quatre volets, concurrentiel, social, un volet « contenus » et un dernier concernant les moyens de la régulation21.

Un premier ensemble dobligations résulte de la loi pour une République numérique, novatrice en la matière, qui prévoit des obligations applicables à plusieurs cas de figure. Notre propos concerne plus particulièrement les obligations imposées aux plateformes qui valorisent des contenus, des biens ou des services proposés par des tiers, tels que les moteurs de recherche, réseaux sociaux ou comparateurs, et qui doivent préciser les critères de référencement et de classement quelles utilisent.

Ces dispositions concernent les relations des plateformes avec les utilisateurs finaux. En amont, le respect de la loyauté et de la transparence doit amener les plateformes à révéler la manière dont elles ordonnancent les contenus. Cest ce que fait Google lorsquil explique dans quel ordre les actualités sont présentées au lecteur sur Google News. Donner à lutilisateur les moyens de créer son propre ordonnancement constitue également une réponse intéressante. En tout cas, on pourrait revendiquer une transparence encore plus grande sur la manière dont les contenus les plus engageants sont valorisés de telle manière que sont exacerbés les contenus haineux ou les fausses informations. Ou encore demander que toute la lumière soit faite sur la manière dont lattention est captée, ce qui est lobjectif ultime des plateformes et la face la plus cachée de leur stratégie.

En aval, ces obligations sont à même de permettre la disponibilité de linformation qui est nécessaire à lutilisateur pour exercer ses droits en tant que citoyen en vertu de larticle 22, même si cest ici le droit de la consommation qui est convoqué. Comment concilier ces deux approches, dans la mesure où le respect de lobligation de transparence 38par la communication de certaines informations est cela même qui risque de favoriser le refus dêtre le destinataire dune décision automatisée. Réguler les plateformes ou sen défendre, voire les défaire sont en effet les termes antagonistes du débat actuel qui sinscrit dans une prise de conscience sans précédent des risques de la plateformisation22.

Si la loi française sintéresse à la relation BtoC, il nen est pas de même de lapproche européenne qui a donné naissance au règlement promouvant léquité et la transparence pour les entreprises utilisatrices de services dintermédiation en ligne23. Elle concerne quant à elle les relations entre les plateformes et les entreprises, doù son nom de « Platform to business ». Le Conseil national du numérique, qui a organisé la consultation dans le cadre des états généraux, fait valoir quune approche horizontale serait préférable à cette réglementation en silos. Ceci est dautant plus logique que dans le cadre de certaines plateformes, notamment collaboratives, loffreur est souvent un individu. Les obligations prévues par ce règlement embrassent en tout cas un large champ. En matière de transparence, un article 5 consacré au classement vient fixer des obligations très précises relatives à la communication des paramètres utilisés pour le classement, à faire figurer dans les conditions générales. Ces règles répondent à un besoin de prévisibilité. Il est à noter que « la notion de principaux paramètres devrait sentendre comme faisant référence à tous les critères et processus généraux ainsi quaux signaux spécifiques intégrés dans les algorithmes ou à dautres mécanismes dajustement ou de rétrogradation utilisés en relation avec le classement24 ».

Le règlement est intéressant aussi dans la mesure où il crée un observatoire européen des plateformes et répond ainsi à un besoin de connaissance de leur fonctionnement. Cet enjeu est à la source dune proposition de création dun observatoire français à limage de lentité européenne. Pour atteindre cet objectif de connaissance, peut-on uniquement sen remettre au bon vouloir de coopération des entreprises ou faut-il être plus directifs pour accéder à certaines informations, notamment en temps réel ?

39

La question est importante au regard du développement dune forme de régulation utilisée notamment par lARCEP : la régulation par la donnée. Celle-ci repose sur des canaux de remontée de données, par exemple sur les pratiques des plateformes, le but étant notamment une meilleure information du citoyen. Cette approche répond à une volonté de créer un parallélisme entre une société et une économie gouvernées par les données et lusage de ces mêmes données à des fins de régulation. La disponibilité des données est alors de nature à susciter un choix et dinciter une entreprise à modifier son offre.

Conclusion

Lensemble du RGPD est imprégné par la recherche dun « empowerment » de lindividu au sens de lautodétermination informationnelle. Lu ou appliqué en combinaison avec la régulation des plateformes, il peut fonder une capacité de résistance face à lautomatisation de la présentation des contenus. Pour linstant, lopacité est grande en la matière et lemprise des plateformes préoccupante. Il apparaît pour le moins paradoxal dans ces circonstances de continuer à faire bénéficier certaines plateformes de la responsabilité aménagée des intermédiaires techniques alors que cest précisément leurs fonctions éditoriales ou de présentation des contenus dun type nouveau qui fait problème. Le programme de la nouvelle Commission européenne sagissant du numérique sera certainement loccasion de prendre de nouvelles orientations dans ces domaines, à loccasion de la réforme de la directive e-commerce et du projet dadoption dun Digital Services Act.

Annie Blandin

Élisabeth Lehagre

1 Rapport du Conseil Général de lÉconomie sur les modalités de régulation des algorithmes de traitement de contenus, 13 mai 2016.

2 Règlement général européen sur la protection des données – Règlement (UE) 2016/679 du 27 avril 2016.

3 Dominique Cardon, À quoi rêvent les algorithmes, Édition du Seuil et La République des idées, octobre 2015, p. 354-358.

4 Serge Abiteboul et Gilles Dowek, Le temps des algorithmes, Éditions le Pommier 2017 : « Comme dautres membres de la cité, les algorithmes et les ordinateurs sont amenés à prendre des décisions… »

5 Lignes directrices du G29 sur le profilage et les décisions individuelles automatisées Chapitre iv (A).

6 Bernard Stiegler, Les données, muses et frontières de la création, Cahier IP Innovation & Prospective no 03.

7 Étude annuelle 2014 du Conseil dÉtat : Le numérique et les droits fondamentaux, p. 233.

8 Concept développé par Eli Pariser « The Filter Bubble : What The Internet Is Hiding From You », Penguin Press, 2011.

9 Frederik JZuiderveen Borgesius, Damian Trilling, Judith Möller, Balázs Bodó, Claes H. de Vressen, Natali Helberger, “Should we worry about filter bubbles ?”, (2016), Internet Policy Review, 5(1). DOI : 10.14763/2016.1.401

10 Daniel Le Métayer, Sonia Desmoulin-Canselier, « Gouverner les algorithmes pour éviter quils nous gouvernent », Tribune, journal Libération, 26 novembre 2017.

11 Mireille Hildebrandt, Introitus : What Descartes did not get. Being profiled : 10 years of profiling the European citizen, Amsterdam University Press BV, Amsterdam 2018.

12 Étude du Conseil de lEurope DGI (2017)12 sur les dimensions des droits humains dans les techniques de traitement automatisé des données et éventuelles implications réglementaires.

13 Article 1 de la Constitution du 4 octobre 1958 ; Article 14 de la Convention européenne des droits de lhomme https://www.echr.coe.int/Documents/Convention_FRA.pdf

14 Art. L 225-1 et s. du Code pénal.

15 Patrice Bertail, David Bounie, Stephan Clémençon, et Patrick Waelbroeck, « Algorithmes : biais, discrimination et équité », TelecomParisTech, 14 février 2019.

16 Mathias Lecuyer, Riley Spahn, Yannis Spiliopolous, Augustin Chaintreau, Roxana Geambasu, Daniel Hsu ; “Sunlight : fine-grained targeting detection at scale with statistical confidence”, 22d ACM SIGSAC Conference on Computer and Communications Security (CCS), ACM, 2015.

17 Sandra Wachter, Brent Mittelstadt, Luciano Floridi, “Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation” (December 28, 2016). International Data Privacy Law, 2017. Consultable sur SSRN : https://ssrn.com/abstract=2903469 ou http://dx.doi.org/10.2139/ssrn.2903469

18 Lee A. Bygrave, “Minding the Machine : Article 15 of the EC Data Protection Directive and Automated Profiling”, Privacy Law & Policy Reporter, 2000, volume 7, p. 67–76.

19 https://www.legalis.net/actualite/la-cour-de-cassation-confirme-le-statut-dhebergeur-de-dailymotion/

20 gouv.fr/files/files/2019/Mission_Regulation_des_reseaux_sociaux-Rapport_public.pdf

21 https://cnnumerique.fr/les-premieres-syntheses-des-etats-generaux-sont-en-ligne – Annie Blandin, « La question concurrentielle dans le contexte des états généraux des nouvelles régulations numériques », Revue Contrats Concurrence Consommation, no 7, juillet 2019.

22 Martin Untersinger, « 30 ans du Web : “Il nest pas trop tard pour changer le Web” » affirme Tim Berners-Lee, Le Monde, 12 mars 2019.

23 Règlement 2019/1150 du Parlement Européen et du Conseil du 20 juin 2019 promouvant léquité et la transparence pour les entreprises utilisatrices des services dintermédiation en ligne, JOUE no L 186/57 du 11.07.2019.

24 Considérant 24 du Règlement.