Antoinette Rouvroy et le concept de gouvernementalité algorithmique
Ce concept de gouvernementalité algorithmique est né de mon intérêt pour les effets produits par la «numérisation du monde», sur les modalités de «gouvernement». Il s’agit d’un glissement supplémentaire par rapport au mode de gouvernement néolibéral. J’ai voulu décrire ce glissement du gouvernement néolibéral au gouvernement algorithmique […]
Pour comprendre le concept de gouvernementalité algorithmique, il ne faut pas l’entendre au seul sans du pouvoir politique, mais comme l’ensemble des pouvoirs qui modifient les objets de notre espace structurel, qu’il soit physique ou morale.
Le pédiatre et psychanalyste Winnicott est de ceux à avoir pris en compte le rôle des objets familiers dans la construction de notre identité. Ces relations avec de tels objets permettent de créer ce qu’il a appelé un espace transitionnel […] à l’origine de la capacité à symboliser le monde, à prendre une distance par rapport à lui, et permettent à terme l’expérience culturelle de l’homme.
Philippe Hert Département de Communication, Université Nancy 2
INTERNET COMME DISPOSITIF HÉTÉROTOPIQUE
Les technologies numérique sont de véritables prothèses cognitives, mémorielles, affectives, communicationnelles plus addictives les unes que les autres (ordinateurs, iphones, ipads, smartphones, gps, …), nous immergent dans l’environnement contrôlé-personnalisé de la réalité numérique. Métabolisé par les systèmes informatiques, nous communiquons sous forme de données numériques, en résultent des masses gigantesques de données brutes, disponibles pour une multitude d’opérations statistiques.
On distingue trois types de données générées par notre activité numérique
Les données objectives : d’identification ou données de contact (identité civile, pseudonyme, adresse IP, numéro de téléphone, adresse mail, adresse postale, …), les données sociodémographique (âge, sex, profession, famille, …), les données juridiques (casier judiciaire, amendes, …), les données financières et foncières (solde bancaire, allocation, hypothèques, …). Les données d’identification permettent d’agire sur le comportement de l’individu (en lui interdisant l’accès à un services, en le dénonçant, …).
Les données subjectives : opinons et activités politiques, religieuses ou syndicale (opinions émise publiquement, signature de pétition, …), données relationnelles (taille du réseau social, e-mails, élocution et style de langage, …)
Les données comportementales : qui sont les données relative à notre navigation sur internet (préférences sexuelles, alimentaires, vestimentaires et culturelles, type d’achat, destination touristiques, …)
We are anonymous
Qui nous sommes singulièrement (individuellement), quelle est notre histoire, quels sont nos rêves, quels sont nos projets, tout cela intéresse sans doute, dans des proportions variables, nos « amis » des réseaux dis sociaux, mais quel intérêt pour les sociétés telles que Google, Facebook, la NSA et toute autre forme de qui depuis quelques année sont si intéressés par la collecte de toutes traces laissé sur internet ?
L’idéologie accompagnant la croissance de ces « big data », est qu’à condition de disposer de quantités massives de données brutes (datawarehouses), il deviendrait possible de prévoir, avec une relative précision, la survenue de la plupart des phénomènes (comportements humains), grâce à des algorithmes relativement simples permettent, sur une base purement statistique, inductive, d’inférer des profils (patterns ou modèles de comportements) sans plus avoir à se préoccuper de leurs capacités d’entendement et de volonté.
Autrement dit, les « données brutes », sont soigneusement nettoyées des traces de leur contexte originaire et de toute signification singulière. Car l’intérêt n’est pas d’arriver à un profilage individuelles, mais à un profilage de masse pouvant très bien fonctionner sur la base de données anonymes, qui n’entrent donc pas dans le champ d’application des régimes juridiques de protection des données à caractère personnel.
Cela peut paraître très égalitaire, non-discriminant, dans la mesure où des profils réalisés par des algorithmes automatiques de corrélation statistique ne visent personne en particulier, ces algorithmes mettent simplement en évidence des corrélations entre des données, des simultanéités. De ses signaux infra-personnels et a-signifiants mais quantifiables, émergent des profils paraissent très objectifs. Le risque pour les individus et d’être catégorisé d’une manière qu’ils ne peuvent pas comprendre, ni contester, puisque les catégories reposent sur des inductions statistiques et non sur des signes ou appartenances distinctifs. Comme il n’est pas possible de comprendre pourquoi je suis catégorisée dans tel ou tel catégorie et qui sont les autres personnes appartenant à la même catégorie moi, il m’est donc impossible d’entamer une action collective.
Par contre, quand un groupe de personnes est systématiquement discriminé, ses membres peuvent se regrouper (« j’ai été discriminé à cause de ma couleur de peau », « c’est du sexisme parce que je suis une femme », « c’est à cause de ma religion ») ; il y a une prise contre ce pouvoir-là, il y a du débat, il y a du conflit. Contre le profilage algorithmique, il n’y a pas d’argument puisque c’est la machine qui a décidé.
Cela rend-il les machines d’autant plus dangereuses ?
Ce ne sont pas les machines qui sont dangereuses. Elles peuvent apporter des solutions intéressantes dans de nombreux domaines, en nous dispensant par exemple de séries d’opérations mentales routinières et en nous libérant l’esprit pour d’autres tâches plus « intéressantes ».
Cela devient dangereux dans la mesure où cela nous dispense, collectivement, de comparaître les uns devant les autres, de nous rencontrer pour nous mettre d’accord au départ de positions antagonistes, de discuter, de débattre, […] dans la mesure où cela nous dispense des occasions et conditions de surgissement du commun. Car c’est précisément du commun, de la communauté, que la gouvernementalité algorithmique semble nous dispenser, au profit d’une régulation systématique, automatique […] il va de soi qu’il ne s’agit que d’un certain type d’objectivité (machinique), qui n’est pas l’objectivité critique, et qu’il s’agit d’un certain type d’opérationnalité (fluidité) […]
Par exemple, à partir du moment où des algorithmes détectent des terroristes potentiels, on les arrête préventivement, mais on ne pourra jamais savoir si c’étaient des faux-positifs, puisque par définition, l’acte empêché, ne s’est jamais produit. Scientifiquement, ce n’est pas validé, mais c’est opérationnel (réduction des coûts de personnel dans les aéroports, plus grande fluidité des passagers puisque seuls certaines cibles sont fouillées). Il y a donc une complicité entre le capitalisme (libération des flux) et ces dispositifs algorithmiques.