Anticiper le crime aux États-Unis Des méthodes actuarielles à l'usage du Big Data
- Publication type: Journal article
- Journal: Études digitales
2016 – 2, n° 2. Le gouvernement des données - Author: Guérin (Vincent)
- Pages: 169 to 181
- Journal: Digital Studies
ANTICIPER LE CRIME
AUX ÉTATs-UNIS
Des méthodes actuarielles
à l’usage du Big Data
Il était terriblement dangereux de laisser les pensées s’égarer quand on était dans un lieu public ou dans le champ d’un télécran. La moindre des choses pouvait vous trahir. Un tic nerveux, un inconscient regard d’anxiété, l’habitude de marmonner pour soi-même, tout ce qui pouvait suggérer que l’on était anormal, que l’on avait quelque chose à cacher. En tout cas, porter sur son visage une expression non appropriée (paraître incrédule quand une victoire était annoncée, par exemple) était en soi une offense punissable. Il y avait même en novlangue un mot pour désigner cette offense. On l’appelait facecrime1. Georges Orwell, 1984.
Nineteen-Eighty-Four is an important book but we should not bind ourselves to the limits of the author’s imagination2. Edward Snowden, 2014.
INTRODUCTION
Anticiper le crime, ce fantasme développé par les auteurs de science-fiction comme Philip K. Dick dans Minority Report mais aussi Georges Orwell dans 1984, serait en train de se réaliser dans les pays anglo-saxons.
L’objet de ce texte est d’observer sur un siècle, aux États-Unis, la mutation de cette volonté de détecter, d’anticiper et de prévenir le crime avant son accomplissement et de sonder ce qu’elle dévoile : capter en 170toute objectivité la virtualité d’un acte, en d’autres termes sa potentialité, sa puissance mais aussi l’émergence concomitante d’une nouvelle normativité.
De façon plus générale, il s’agit ici de saisir l’évolution de la relation entre savoir-pouvoir et subjectivité au travers du passage de l’âge actuariel à celui des volumes massifs de données (Big Data), et des dispositifs dits « algorithmo-prédictifs » comme Future Attribute Screening Technology (FAST).
LA MÉTHODE ACTUARIELLE
Les chiffres sont des êtres fragiles qui, à force d’être torturés, finissent par avouer tout ce qu’on veut leur faire dire3.
Alfred Sauvy
L’usage des méthodes actuarielles en criminologie consiste à cerner la dangerosité potentielle d’un comportement humain à partir d’un calcul de probabilité. Issue du risque assurantiel, cette rationalité apparaît aux États-Unis dans les années 1920, où elle est mise au point par le sociologue Ernest W. Burgess de l’université de Chicago4. Elle est utilisée pour la première fois dans les années 1930 à Joliet, le pénitencier de l’État de l’Illinois. La probabilité de réussite d’une libération conditionnelle est déterminée en fonction d’un test de 21 facteurs construits à partir d’un échantillonnage de 3000 détenus en liberté conditionnelle depuis quatre à cinq ans. Il s’agit de saisir la relation statistique entre la réussite de la liberté conditionnelle et ces 21 facteurs comme l’origine ethnique, le profil social, l’âge mental, le type de personnalité (égocentrique, instable, etc.). L’actuaire, un spécialiste de l’application du calcul des probabilités et des statistiques, attribue des points aux facteurs associés à une plus 171forte probabilité de réussite et, en fonction du score établi, ventile les individus dans des catégories qui permettent de « prédire » les chances de réussite des libérations sous conditions. Ceux qui ont un plus grand nombre de points ont le taux de récidive le plus faible, les autres une plus grande probabilité de repasser à l’acte5.
Cette méthode actuarielle se développe dans un contexte d’humanisation et d’individualisation de la peine qui fait écho à la publication en 1898 de l’ouvrage éponyme du juriste français Raymond Saleilles qui sera traduit et publié aux États-Unis quelques années plus tard (L’individualisation de la peine. Étude de criminalité sociale)6. Aux États-Unis, dans les années 1930, la sentence est indéterminée, c’est three years to life. Jamais moins de trois ans et jusqu’à perpétuité. La libération conditionnelle met fin à la peine. L’enjeu est de prévoir la dangerosité future : qui est susceptible de récidiver7 ?
La méthode actuarielle repose sur le progrès statistique et l’idée ambiante d’être capable de décrire, prédire et manipuler le comportement humain individuel, présente entre autres dans le behaviorisme8. Son adoption aux États-Unis fut lente. Dans les années 1960, elle se développe à la faveur d’un climat de suspicion à l’encontre des capacités diagnostiques des psychologues en matière de délinquance9.
Certains soutiennent que la méthode de prédictions actuarielles est plus précise et plus efficace que l’approche clinique. Les causalités statistiques et cliniques entrent en rivalité10. En 1981, le psychologue américain John Monahan écrit que l’évaluation de la dangerosité par un clinicien n’est exacte qu’une fois sur trois. Il leur reproche des estimations proches du hasard, la surestimation des risques de récidive, etc.11.
172Dans les années 1970, le gouvernement fédéral, soucieux d’améliorer l’efficacité de la police, étend cette méthode à tous les États. Dans un premier temps limitée à la libération conditionnelle, elle devient une méthode de profilage et de ciblage des groupes à risques : trafiquants de stupéfiants, fraudeurs fiscaux, etc.12. De façon pragmatique : si un policier a le choix pour une arrestation entre deux personnes, il doit cibler celle qui appartient au groupe supposé avoir la plus forte probabilité d’être coupable. Aux États-Unis se sont ainsi développées des arrestations ciblées, visant une minorité.
Le sociologue, statisticien et historien Alain Desrosières souligne que la quantification statistique est un reflet du monde et donc le produit de conventions sociales préexistantes. Aussi, plutôt que d’interroger l’objectivité et la neutralité des statistiques, il faut, selon lui, interroger les procédures d’objectivation et leur « visée » de neutralité13.
La méthode actuarielle s’inscrit dans la théorie des choix rationnels (rational choice). Le calcul s’exprime ainsi : si le coût du crime pour une population donnée augmente, alors les individus de cette population vont, a priori, commettre moins de crimes. L’efficacité repose sur le postulat que si l’on cible une population qui a un taux de criminalité élevé, en augmentant le coût – on va arrêter plus souvent cette population cible comme les Portoricains – on va faire baisser son taux de criminalité, donc favoriser une réactivité. C’est ce que l’on appelle l’« élasticité », qui mesure la manière dont réagit une variable par rapport à une autre. Seulement, les policiers ont rapidement constaté que si l’on arrêtait 60 % de chauffeurs afro-américains sur une autoroute, alors que cette population ne représente que 18 % de la population totale mais 60 % des personnes arrêtées, le taux de découverte de stupéfiants était quasi semblable au 40 % restant14.
Pour le juriste et sociologue américain Bernard Harcourt, il s’agit d’une discrimination statistique15 : alors que l’on arrête beaucoup plus une minorité que les autres, nous sommes à un point d’équilibre. Aussi dénonce-t-il l’idée de la rationalité de la méthode actuarielle et « l’élasticité » présupposée du crime chez certains groupes. Selon lui, ceux-ci ne vont pas changer leur comportement, tout simplement parce 173que les raisons qui les conduisent à commettre le crime excèdent le choix rationnel. En d’autres termes, tous les groupes ne réagissent pas de la même manière. Il prend l’exemple des Portoricains qui transportent de la drogue : il faut imaginer qu’ils n’ont pas d’autres alternatives, qu’ils n’ont pas les mêmes possibilités d’avoir un emploi. Ceci explique une réactivité différente, et donc une élasticité moindre. Plus encore, nous assistons à ce qu’il appelle un « effet cliquet » : le ciblage renforce la stigmatisation16. Le groupe ciblé intériorise l’image que l’on porte sur lui et cette violence symbolique se répercute dans l’emploi, l’éducation, etc. Au final, on assiste à une auto-réalisation qui génère une naturalisation, un « ça va de soi ». Le risque de cette ingénierie sociale qui envisage la vie comme une mécanique, c’est la déshumanisation. Comment s’en préserver ? Bernard Harcourt préconise d’accepter l’« aléatoire humain17 ».
New penology et underclass
Le déploiement des méthodes actuarielles aux États-Unis fait écho au courant dit de new penology conceptualisé dans un article de Malcom Feeley et Jonathan Simon en 199218. Cette dénomination surestime largement l’influence de ce discours aux États-Unis. Selon ce concept, le crime est considéré comme « un risque normal » dont il faut minimiser l’impact. La nouvelle pénologie se concentre sur l’acte sans questionner le contexte. L’intérêt porte moins sur le comportement individuel que sur la gestion du groupe auquel il appartient. Le crime est un « problème technique », « une probabilité statistique » plutôt qu’une « transgression ». Cette conception s’accorde avec l’usage de l’évaluation actuarielle qui dissout le sujet dans « une combinatoire de facteurs », d’artefacts. L’individu n’est plus décrit à travers ses caractéristiques morales ou cliniques mais via des distributions statistiques Dans cette pénologie, centrée sur l’identification du profil de risque, le sujet criminel est négligé, « démoralisé ». Il ne s’agit plus de diagnostiquer et de traiter les causes du crime mais d’identifier le taux de risques du délinquant et « la ressource pénale » appropriée19.
174Selon Malcom Feeley et Jonathan Simon, la nouvelle pénologie est une réponse à l’émergence d’une nouvelle compréhension de la pauvreté aux États-Unis avec le développement de la notion de « criminel de carrière » et d’underclass20. L’underclass désigne une population « perçue comme définitivement pauvre et marginale21 », a priori pas intégrable (essentiellement les populations des ghettos noirs et les hispaniques). Un groupe considéré comme dangereux en raison des actes individuels, mais aussi de son potentiel collectif de délinquance22. Ce concept d’underclass incite au développement d’une réponse pénale collective qui sied aux méthodes actuarielles : elles peuvent fonctionner à moindre coût, associées à des mesures d’exclusion et de surveillance23. Pour le sociologue Loïc Wacquant, spécialiste de la marginalité urbaine et du système pénal américain, l’« underclass urbaine » est une expression dangereuse qui désigne « “les mauvais pauvres” des quartiers ségrégués, ceux qui, par leur conduite, leur style de vie et leurs valeurs ‘“dysfonctionnelles”, seraient responsables de leur pitoyable destin et du déclin de la ville24 ». La dangerosité, l’immoralité et l’appartenance à une catégorie stigmatisée (Afro-américains, Portoricains, Chicanos…) seraient les traits dominants de l’underclass25. Apparu en 1963 sous la plume de l’économiste Gunnar Myrdal pour désigner un phénomène structural, l’underclass réapparaît, sous un nouvel habillage, dans les années 1980 au moment où l’État providence est remis en cause26. À cette date, il se fixe sur le ghetto et devient comportemental27.
Dans cette nouvelle pénologie, l’objectif de la peine n’est plus la correction du délinquant, mais sa gestion, le management du risque que représente la délinquance pour la société. Il s’agit moins de réduire les écarts entre l’individu marginal et la norme ambiante, que de classer les 175individus ou groupe en regard de l’écart normatif, sans souci de transformations ou de réhabilitations individuelles28. La priorité est donnée à la surveillance et la neutralisation dans une « prison-exclusion29 ». Le supermax, prison ou quartier de très haute sécurité, est l’incarnation de cette « nouvelle pénologie », pour ceux dont la dangerosité estimée est la plus élevée, avec isolement préventif, absence de réinsertion et classification selon le risque30. La longueur de la peine ne dépend plus de la nature de l’acte criminel, ni même de la personnalité du délinquant, mais de son profil de risque. Le système pénal n’a plus de fin sociale mais est une fin en soi : « On vérifie que les choses soient bien faites, plutôt que les bonnes choses soient faites31. »
Alors que Michel Foucault décrivait des dispositifs disciplinaires (prison, asile, caserne, etc.) comme des machines visant à subjectiviser les individus, le philosophe Giorgio Agamben pointe le passage de ces processus de subjectivisation, de gouvernement, à des processus de désubjectivation, qui n’ont plus pour ambition la construction d’un sujet32.
Dans un système néolibéral qui craint que le gouvernement n’agisse trop, la nouvelle pénologie permet une meilleure gestion des ressources en recherchant la mesure efficiente. La rationalité économique, inadéquate pour le délinquant, est utile pour le système pénal. Le travail au sein de l’institution se caractérise par une augmentation et un morcellement des tâches administratives, l’application d’outils à des fins d’objectivisation. In fine, les données informatiques servent à contrôler l’activité, la performance des agents pénaux33. Observons, à la lumière de cette histoire, FAST, un dispositif « algorithmo-prédictif ».
176Future Attribute Screening Technology (FAST)
En devenir, le dispositif FAST a pour objectif explicite de détecter et désamorcer une intention terroriste. Il s’inscrit dans la politique sécuritaire née des attentats du 11 septembre 2001. Un événement qui a dévoilé l’incapacité de la National Security Agency (NSA) à interpréter les signes de la menace et son manque de communications avec la CIA et le FBI34.
En chantier depuis 2008, FAST est développé par le Department of Homeland Security (DHS)35. Créée en 2002, cette agence a pour mission de prévenir les attaques terroristes, réduire la vulnérabilité, minimiser les dommages et récupérer des attaques qui surviendraient36. Versant intérieur du ministère de la Défense, elle dispose d’un effectif de 240 000 salariés et est dotée d’un budget annuel de 100 milliards de dollars. Plusieurs entreprises privées participent à l’élaboration de FAST comme Battelle, Draper Lab, etc.
Ce dispositif repose sur le postulat qu’une personne qui souhaite commettre un crime a une attitude « remarquable » qui se traduit sur le plan comportemental, physiologique et paralinguistique (gestes, mimiques)37.
Présentée comme neutre en termes de genre, de culture et d’âge, n’utilisant pas de techniques de profilage ou de collecte d’informations identifiables38, cette biométrie – une quantification du vivant – est annoncée comme respectueuse des droits civils, de la liberté et de la vie privée. Utilisés sous la forme d’un module à un checkpoint dans un aéroport, pour un événement sportif ou politique, des capteurs scrutent les mouvements du corps, l’activité cardiovasculaire, l’oculométrie (eye tracker), la nature de la voix, les sons émis et bientôt les niveaux d’émissions de phéromones, afin de détecter une intention malveillante 177comme une attaque terroriste39. Discret, bientôt transparent, FAST permet aux passagers, aux supporters de se déplacer sans entrave, de manière fluide : pas de chaussure, de ceinture à enlever, de fouille au corps nécessaire40. Ainsi, FAST apparaît comme une nouvelle technique qui pourrait accentuer la surveillance dite de masse, donner corps à un data-panoptisme41.
Associée à l’état de guerre issu des attentats du 11 septembre 2001, cette surveillance de masse rendue possible grâce à la collecte de mégadonnées s’incarne dès le 26 octobre 2001 dans le USA Patriot Act (acronyme signifiant : « Unir et renforcer l’Amérique en fournissant les outils appropriés pour déceler et contrer le terrorisme42 »). Elle se caractérise par l’accentuation de l’interception généralisée des communications, l’usage de la biométrie et bien sûr de la vidéo-surveillance, etc. Un état de guerre résumé ainsi par un journaliste : « Fight terror as if there were no rules43. »
Cette surveillance se serait accentuée avec l’attentat du marathon de Boston en avril 201344. À Manhattan uniquement, il y aurait plus de 4000 caméras, à Chicago 10 000 (en Europe, Londres bat tous les records avec un demi-million de caméras)45. Aux États-Unis ce marché de la sécurité fait la fortune de certaines entreprises comme la très confidentielle Palantir Technologies, Inc spécialisée dans l’analyse de données. Le nom de Palantir viendrait de la « pierre de vision », une sorte de boule de cristal présente dans Le seigneur des anneaux. Cette « licorne », autrement dit une start-up promise à un bel avenir, en partie financée par des fonds dévolus au renseignement, propose des systèmes de dataveillance pour la CIA et notamment Gotham (une allusion à Batman) utilisé dans la lutte anti-terroriste et Metropolis (Superman) destiné aux entreprises46. 178Un marché qui fait écho à une remarque de l’informaticien américain, ancien agent de la CIA et de la NSA, Edward Snowden :
We constantly hear the phrase ‘national security’ but when state begin… broadly intercepting the communications, seizing the communications by themselves, without any warrant, without any suspicion, without any judicial involvement, without any demonstration of probable cause, are the really protecting national security or are they protecting state security47?
Censé être provisoire, cet état d’exception a été reconduit très largement en juin 2015 sous le nom d’USA Freedom Act.
ÉTAT D’EXCEPTION VS ÉTAT DE DROIT
Avec FAST, certains redoutent les erreurs. Selon le DHS, il serait fiable à « 81 %48 ». Détectera-t-il les intentions des gens qui portent une bombe à leur insu ? Le dispositif est-il opérant face à des « bombes humaines » persuadées d’être dans leur « bon droit49 » ?
Comment faire face à la marge d’erreur inhérente à l’estimation statistique ? Imaginons un algorithme qui ne se tromperait qu’une fois sur cent. Prenons l’exemple de l’aéroport JFK de New York. Entre le 1er janvier 2014 et le 31 décembre 2014, 53 000 000 passagers y ont transité, soit 150 000 par jour. Avec 1 % d’erreur, nous obtiendrions 1500 erreurs chaque jour, dont des gens animés d’une intention terroriste.
De plus, la force normative du dispositif, l’apparente objectivité du signal qui se déduit de lui-même par induction (non de manière causale), contraindra l’opérateur de FAST en cas d’alerte à ne pas s’écarter de la recommandation automatique « optimale » et ainsi intervenir indépendamment via l’interprétation subjective qu’il ferait de la situation basée 179sur le bon sens50. Une illustration de l’altération/distorsion de notre perception lorsque nous nous en remettons à l’automatisation51. Ignorer l’alerte reviendrait à justifier le déclenchement d’un dispositif qui paralyserait peut-être l’aéroport ou le lieu public auquel FAST donne accès et aurait ainsi des conséquences économiques et bien sûr personnelles sur l’« opérateur » qui serait sommé de justifier son comportement face à l’« autorité numérique ».
Le juriste américain, Christopher Rogers reproche aussi à FAST d’enfreindre le 4e amendement, qui protège les citoyens américains contre des investigations non justifiées de la part du gouvernement, en récoltant et dévoilant des (méta) données biométriques signifiantes de l’état de santé des personnes. En effet, si le système détecte des anomalies physiologiques, hormonales, il dévoile aussi la santé cardiovasculaire, l’anxiété pathologique, la dépression, le temps de l’ovulation, etc.52. Mais le 4e amendement n’est-il pas déjà largement contourné par les intrusions massives effectuées par la NSA53 ? On pourra bien sûr rétorquer, à juste titre : quelle importance alors que des vies soient en jeu ? Seulement, où arrêter l’engrenage ?
Le juriste pointe d’autre part qu’une mauvaise intention n’est pas un crime en soi, la pensée n’est pas passage à l’acte54. En 1949, George Orwell, dans son roman 1984, craignait que le gouvernement ne punisse un jour le crime de la pensée.
FAST, rappelons-le, est un dispositif qui a pour objet de détecter une intention, non l’action de l’individu mais sa potentialité, sa puissance. Cette distinction entre l’acte et la puissance, loin d’être un artifice philosophique, s’ancre ici dans le concret. En effet, sans nier la menace objective, le problème immédiat qui se pose est de savoir si on peut arrêter et donc neutraliser, pour raison de sûreté, quelqu’un qui n’a pas 180commis de crime : présumé dangereux ? Explorée dans la science-fiction et notamment par Philip K. Dick dans Minority Report, la culpabilité se situant en amont, avant même l’intention de la personne, conduit au paradoxe suivant énoncé par les protagonistes :
L’inconvénient fondamental, du point de vue juridique, inhérent à la méthodologie de Précrime ne vous a probablement pas échappé non plus. Nous arrêtons des individus qui n’ont nullement enfreint la loi.
– Mais s’y apprêtent, affirma Witwer avec conviction.
– Justement, non, par bonheur… puisque nous les arrêtons avant qu’ils puissent commettre un quelconque acte de violence. Donc, l’acte criminel proprement dit ne relève strictement que de la métaphysique. C’est nous qui proclamons ces gens coupables. Eux se prétendent éternellement innocents. Et en un sens, ils sont innocents.
Plus loin :
Notre société ne connaît plus le crime grave, poursuivit Anderson, mais nous avons tout de même un camp de détention peuplé de criminels potentiels55.
Avec FAST, la responsabilité et donc le libre arbitre sont abolis. Nous sommes en présence d’une démoralisation de l’acte, une dé-subjectivisation, en un mot la gestion d’un risque ; un phénomène repérable dans le champ pénal américain depuis au moins les années 1930. Cette « objectivisation » est renforcée par l’usage du Big Data et la négation de l’existence d’un « dehors » à l’intelligibilité algorithmique56, le fantasme d’une vérité cachée apparaissant sous les traits de l’objectivité machinique, une norme opaque émergeant d’une corrélation de données. La discrimination directe, causale, d’avant l’ère numérique, fondée sur l’appartenance ethnique, sociale, politique, largement dénoncée comme stigmatisante, auto-réalisatrice, naturalisante est ici contournée et, par là même, la critique à l’égard du dispositif se trouve affaiblie. Nous sommes dans une « visualisation » algorithmique, une manière de produire de la connaissance qui fait apparaître des catégories jusqu’alors imperceptibles en apparence « impartiales », non discriminantes.
Bien que des travaux montrent que la production des données et les algorithmes ne sont pas exempts de biais cognitifs et de préjugés, 181indifférents au contexte et à la cause des phénomènes, cette « visualisation », non critique, n’est pas suspecte.
De plus, cette « objectivité » machinique pose le problème de la discrimination indirecte et la difficulté pour la personne incriminée de faire valoir son point de vue. Comment faire valoir ses droits, contester, face à la vérité d’un « grand Autre » numérique ? Devant l’opacité machinique, notamment dans le cas d’un système auto-apprenant même supervisé (apprentissage profond ou deep learning), la juriste Antoinette Rouvroy suggère de réintroduire la responsabilité humaine en inversant la charge de la preuve : celui qui use d’un tel dispositif doit apporter la preuve de l’absence d’effets discriminatoires, c’est-à-dire son objectivité57.
CONCLUSION
FAST est le reflet de l’évolution des dispositifs sécuritaires vers l’objectivisation/dé-subjectivisation, la transparence, en un mot le « citoyen de verre ».
Ce projet met en lumière l’émergence de techniques de plus en plus invasives, faisant émerger une nouvelle normativité qui permet de neutraliser la dangerosité en puissance en déplaçant la répression au plus près de l’intention au risque d’une déshumanisation.
Au nom de l’état d’exception doit-on justifier l’injustifiable ? L’état d’exception, c’est une banalité, va de pair avec un état de vigilance. Une vigilance qui doit être portée sur les glissements, parfois imperceptibles, de nos cadres de référence, leur « naturalisation », repérable aux normes et convictions de chacun, ce que l’on juge normal ou pas, qui rend acceptable ce qui aurait été inconcevable il y a encore peu de temps.
Vincent Guérin
Université d’Angers
1 Georges Orwell, 1984 [1949], Paris, Gallimard, 1984, p. 93.
2 Alan Rusbridger et Ewen McAskill, « Edward Snowden interview – the edited transcript. The whistleblower speaks to Alan Rusbridger and Ewen MacAskill about life in Russia, the NSA culture, his time there and the future of communication », The Guardian, 18 juillet 2014, n. p.
3 Dans Virginie Gautron et Émilie Dubourg, « La rationalisation des outils et méthodes d’évaluation : de l’approche clinique au jugement actuariel », Criminocorpus, Revue d’Histoire de la justice, des crimes et des peines, 26 janvier 2014, n. p.
4 Bernard Harcourt, « ‘Surveiller et punir à l’âge actuariel’, Généalogie et critique », Déviance et société, vol. 35, no 1, 2011, p. 5.
5 Ibid., p. 13.
6 Ibid., p. 8 et « La criminologie actuarielle », Bernard Harcourt interviewé par Antoine Garapon, Le bien commun, France Culture, 23 avril 2008, p. 13 [en ligne].
7 « La criminologie actuarielle », op. cit., p. 2-3.
8 Jean Belanger, « Images et réalité du behaviorisme », Philosophiques, vol. 5, no 1, 1978, p. 5.
9 Thibaut Slingeneyer, « La nouvelle pénologie, une grille d’analyse des transformations des discours, des techniques et des objectifs dans la pénalité », Champ pénal, vol. IV, 2007, n. p.
10 Virginie Gautron et Émilie Dubourg, « La rationalisation des outils et méthodes d’évaluation : de l’approche clinique au jugement actuariel », op. cit., n. p.
11 John Monahan, The clinical prediction of violence behavior, Washington DC, Government printing office, 1981 ; John Monahan, The prediction of violent behavior : toward a second generation of theory and policy, American Journal of Psychiatry, no 14, 1er janvier, 1984.
12 « La criminologie actuarielle », op. cit., p. 3.
13 Christian Mouhanna, « Entretien avec Alain Desrosières », Sociologies pratiques, no 22, 2011, p. 15-18.
14 « La criminologie actuarielle », op. cit., p. 6.
15 Ibid., p. 4.
16 Ibid., p. 10.
17 Ibid., p. 16.
18 Malcom M. Feeley et Jonathan Simon, « The New Penology : Notes on the emerging strategy of corrections and its implications », Criminology, vol. 30, no 4, 1992, p. 449-473.
19 Thibaut Slingeneyer, « La nouvelle pénologie, une grille d’analyse des transformations des discours, des techniques et des objectifs dans la pénalité », op. cit., n. p.
20 Malcom Feeley M. et Jonathan Simon, « The New Penology : Notes on the emerging strategy of corrections and its implications », op. cit., p. 453 et 467.
21 Thibaut Slingeneyer, « La nouvelle pénologie, une grille d’analyse des transformations des discours, des techniques et des objectifs dans la pénalité », op. cit.
22 Malcom Feeley M. et Jonathan Simon, « The New Penology : Notes on the emerging strategy of corrections and its implications », op. cit.
23 Thibaut Slingeneyer, « La nouvelle pénologie, une grille d’analyse des transformations des discours, des techniques et des objectifs dans la pénalité », op. cit.
24 Loïc Wacquant « L’underclass urbaine dans l’imaginaire social et scientifique américain », Serge Paugam (dir.), L’exclusion, l’état des savoirs, Paris, La Découverte, 1996, p. 248-262.
25 Ibid., p. 249.
26 Ibid., p. 253-254.
27 Ibid., p. 256.
28 Thibaut Slingeneyer, « La nouvelle pénologie, une grille d’analyse des transformations des discours, des techniques et des objectifs dans la pénalité », op. cit.
29 Idem.
30 Yasmina Bouagga, « Qui sont les “pires des pires” ? Des usages des classifications en Supermax aux États-Unis », Déviance et société, vol. 34, no 1, 2010.
31 Thibaut Slingeneyer, « La nouvelle pénologie, une grille d’analyse des transformations des discours, des techniques et des objectifs dans la pénalité », op. cit.
32 Giorgio Agamben, Qu’est-ce qu’un dispositif ?, Paris, Payot, 2007, p. 42.
33 Thibaut Slingeneyer, « La nouvelle pénologie, une grille d’analyse des transformations des discours, des techniques et des objectifs dans la pénalité », op. cit.
34 Claude Delesse, NSA. National Security Agency. L’histoire de la plus secrète des agences de renseignement, Paris, Tallandier, 2016, p. 95.
35 Privacy Impact Assessment for the Future Attribute Screening Technology (FAST) Project December 15, 2008 [en ligne].
36 The Departement of Homeland Security, President George W. Bush, juin 2002 [en ligne].
37 Christopher A. Rogers, « A slow march towards thought crime : How the department of homeland security’s fast program violates the fourth amendment », American University Law Review, vol. 64, février 2015, p. 344.
38 DHS Science and Technology Directorate, Future Attribute Screening Technology, Homeland Security [en ligne].
39 Christopher A. Rogers, « A slow march towards thought crime : How the department of homeland security’s fast program violates the fourth amendment », op. cit., p. 344.
40 Idem.
41 Ibid., p. 372 ; Sur le concept de data-panoptisme : Éric Sadin, La vie algorithmique. Critique de la raison numérique, Paris, L’échappé, 2015.
42 Wanda Mastor, « L’état d’exception aux États-Unis : le USA PATRIOT Act et autres violations “en règle” de la Constitution », CRDF, no 6, 2007, p. 62.
43 Ibid., p. 61.
44 Jennifer Valentino-DeVries, Julia Angwin et Steve Stecklow, « Document Trove exposes surveillance methods », The Wall Street Journal, 19 novembre 2011.
45 Keith Proctor, « The great surveillance boom », Fortune, 26 avril 2013.
46 Jamel El Hassani, « Palantir, la mystérieuse start-up qui pèse 20 millions de dollars », Le Figaro, 26 juin 2015.
47 Alan Rusbridger and Ewen MacAskill, « Edward Snowden interview – The edited transcript. The whistleblower speaks to Alan Rusbridger and Ewen MacAskill about life in Russia, the NSA culture, his time there and the future of communication », op. cit.
48 Christopher A. Rogers, « A slow march towards thought crime : How the department of homeland security’s fast program violates the fourth amendment », op. cit., p. 345.
49 Ibid., p. 348.
50 Cette analyse est inspirée par Antoinette Rouvroy dans « Des données et des Hommes. Droits et libertés fondamentaux dans un monde de données massives », Rapport à destination du Comité Consultatif de la Convention pour la protection des personnes au regard du traitement automatisé de données personnelles du Conseil de l’Europe, Conseil de l’Europe, Direction Générale droits de l’Homme et État de Droit, 11 Janvier 2016, T-PD-BUR (2015) 09 REV, p. 45.
51 Nicholas Carr, The glass cage. Who needs humans anyway ?, Vintage, London, 2015.
52 Christopher A. Rogers, « A slow march towards thought crime : How the department of homeland security’s fast program violates the fourth amendment », op. cit., p. 359-361.
53 Glenn Greenwald, Nulle part où se cacher : l’affaire Snowden par celui qui l’a dévoilée au monde, Paris Lattès, 2014 [No place to hide, New York, Metropolitan Books, 2014].
54 Christopher A. Rogers, « A slow march towards thought crime : How the department of homeland security’s fast program violates the fourth amendment », op. cit., p. 367.
55 Philip K. Dick, Minority Report [1953], Paris, Gallimard, 2002, p. 18.
56 Antoinette Rouvroy, « Des données et des Hommes. Droits et libertés fondamentaux dans un monde de données massives », op. cit., p. 15.
57 Idem, p. 18.
- CLIL theme: 3157 -- SCIENCES HUMAINES ET SOCIALES, LETTRES -- Lettres et Sciences du langage -- Sciences de l'information et de la communication
- ISBN: 978-2-406-07064-1
- EAN: 9782406070641
- ISSN: 2497-1650
- DOI: 10.15122/isbn.978-2-406-07064-1.p.0169
- Publisher: Classiques Garnier
- Online publication: 08-12-2017
- Periodicity: Biannual
- Language: French