Accueil Influenceurs Idéathèque Couveuse Panorama



Les nouvelles lois de l’algopolitique

samedi 3 juin 2017, par Hubert Guillaud

L’utilisation des algorithmes est en train de construire un capitalisme de calcul et un sujet politique nouveau, bref, un nouveau cadre de pensée. Rien n’est joué mais les risques de dérive sont inquiétants.

Politique. Dans Les lois de l’imitation, un livre de 1890, le sociologue et criminologue Gabriel Tarde avait définit l’avenir des statistiques comme le « nouvel oeil des médias de masse  ». Il écrivait : « Les [journaux] alors deviendront socialement ce que sont vitalement les organes des sens. Chaque bureau de rédaction ne sera plus qu’un confluent de divers bureaux de statistique, à peu près comme la rétine est un faisceau de nerfs spéciaux apportant chacun son impression caractéristique, ou comme le tympan est un faisceau de nerfs acoustiques. Pour le moment, la statistique est une sorte d’œil embryonnaire, pareil à celui de ces animaux inférieurs qui y voient juste assez pour reconnaître l’approche d’un ennemi ou d’une proie.  » Pour le chercheur Matteo Pasquinelli, grand pourfendeur de « l’idéologie digitaliste », l’oeil des statistiques de Tarde annonçait l’oeil algorithmique avec lequel nous allons devoir vivre et que nous subirons.

Il l’ explique dans un récent article de recherche intitulé « La détection d’anomalies : la mathématisation de l’anormalité dans la société des métadonnées ». Le but de ces algorithmes est de révéler un « nouveau sujet politique » : l’oeil des algorithmes tente désormais de distinguer l’individu « antisocial » de l’ensemble des individus, à l’image des travailleurs dont la productivité est mesurée par l’oeil des algorithmes comme le soulignait déjà les travaux du groupe de recherche européen Forensic Architecture qui dénonce les violences du développement de tels systèmes de contrôle sous forme de systèmes, d’ « architectures », véritables pathologies du monde moderne.

L’ère des datascapes

« L’oeil des algorithmes enregistre des modèles communs de comportement dans les médias sociaux, des mots clefs suspects dans les réseaux de surveillance, des tendances d’achats ou de ventes sur les marchés ou l’oscillation de la température dans certaines régions du monde. Ces procédures de calcul de masse sont assez universelles, répétitives, automatiques et inaugurent une nouvelle ère de complexité épistémique.  » instruit ce chercheur italien.
Pour Pasquinelli, la gouvernance algorithmique repose sur la reconnaissance des formes et la détection d’anomalies, qui sont les deux faces d’une même pièce : une anomalie se détecte qu’au travers de la régularité d’un motif, et, inversement, une tendance se dégage que par l’égalisation de la diversité des celles-ci.

Pour Pasquinelli, le problème de la cartographie de l’internet est né avec lui, mais il a fallu attendre 1998 et la construction du premier centre de données de Google pour voir naître la société de métadonnées, capable de commencer à cartographier la topologie de l’internet. Si les réseaux étaient des flux d’information ouverts, comme le souligne Manuel Castells, les centres de données se sont construits sur l’accumulation de l’information sur l’information : les métadonnées. Les métadonnées divulguent « la dimension de l’intelligence sociale incarnée dans tout élément d’information  ». Elles nous font passer d’une économie politique industrielle à la gouvernance algorithmique, ce « capitalisme du calcul ».

L’exploitation algorithmique des métadonnées permet de mesurer la production collective de la valeur et d’extraire la plus value des réseaux (ce que font les modèles d’affaires de Google ou Facebook), de suivre et prévoir les tendances et anomalies sociales (comme tente de le faire la science du climat ou les programmes de surveillance de la NSA), et d’améliorer l’intelligence machinique de gestion, de logistique et de conception des algorithmes eux-mêmes. Les centres de données ne sont pas seulement des espaces de stockage ou de calcul, mais des endroits d’où l’on ne cesse d’extraire du sens, rappelle le chercheur. En ce sens, ils sont des datascapes (des paysages de données), des représentations visuelles des forces quantifiables qui influencent le travail de celui chargé de les représenter, un moyen de rendre l’espace abstrait des machines perceptible, comme le proposait le romancier de SF William Gibson dans Neuromancien lorsqu’ il représentait le cyberspace comme une ville de blocs de données entre lesquels circuler en 3 dimensions. Or, les structures algorithmiques représentent des modèles abstraits qui ne sont pas nécessairement associés avec l’expérience ou la perception. En ce sens, le processus algorithmique est un véhicule d’exploration qui s’étend au-delà des limites de la perception. Pour Pasquinelli, le datascape devient la carte qui permet de cartographier cet internet que l’on ne voit pas.

Repérer une forme dans la cacophonie

Edward Snowden a évoqué, lui, un système d’intelligence artificielle développé par la NSA pour surveiller les anomalies du trafic internet et détecter la source d’une attaque malveillante sans supervision humaine : Monstermind. La Darpa pour sa part à initié en 2010 le programme Adams (détection d’anomalies à échelles multiples), utilisé pour la détection de menaces par des individus au sein d’une organisation militaire : un programme qui a pour objet de détecter le prochain Edward Snowden comme le soldat qui va finir par péter un plomb de retour de mission.

La détection d’anomalie et la reconnaissance de formes (pattern recognition) sont les deux logiques qui permettent aux algorithmes d’explorer les grands ensembles de données, que ce soit les prévisions météorologiques, l’analyse des réseaux sociaux, les marchés financiers ou les métadonnées des communications de la population. La reconnaissance des formes c’est la reconnaissance de similarités dans les comportements de consommation, comme dans les requêtes des moteurs de recherche, ou encore dans les températures saisonnière. Cette analyse souligne une tendance dans des ensembles de données apparemment dénuées de sens, et est douée de repérer une forme dans la cacophonie. La reconnaissance de formes est ce que le philosophe Manuel de Landa nomme « l’émergence de nouvelles singularités ».
De l’autre côté, les anomalies constituent des résultats qui ne sont pas conformes à la norme, à la tendance, au comportement moyen. Elles ne sont détectées qu’en regard des régularités, et inversement.
La détection des anomalies et la reconnaissance de formes sont les deux outils de la gouvernance algorithmique. Adams est censé identifier un profil psychologique dangereux simplement en analysant le trafic du courrier électronique des soldats à la recherche d’anomalies.

La détection d’anomalies est la paranoïa mathématique d’un pouvoir à l’ère des big data. Les deux fonctions de reconnaissance de formes et de détection d’anomalie sont appliquées aveuglément dans différents domaines : aux Etats-Unis, elles servent aussi bien à prévoir les risques sismiques le long de la faille se San Andreas que les crimes à Los Angeles, à l’image de PredPol, cet algorithme capable de détecter mieux qu’un humain dans quel quartier un crime est susceptible de se produire. Ce sont les mêmes techniques qui sont utilisées par Google et Facebook pour détecter des images pornographiques et les censurer, identifiant des modèles rassurants et des anomalies offensives dans l’analyse des images.

Apophénie : le risque de l’altération de perception

Canguilhem, Foucault, Deleuze, Guattari, l’ensemble des études post-structuralistes, ont écrit sur l’histoire de l’anomalie et la constitution toujours politique de l’anormal. Mais, la grande différence par rapport à la définition traditionnelle de la biopolitique, c’est-à-dire de la régulation des populations, est que dans la société des métadonnées, la construction de normes et la normalisation des anomalies est un processus d’étalonnage continu, en temps réel. Les formes et les anomalies redéfinissant sans cesse à la fois la tendance et les anomalies.

Le risque d’une telle société est à terme celui de « l’apophénie » qu’évoquait l’écrivain de SF William Gibson dans Pattern Recognition (Identification des schémas-2003) : l’altération de la perception. C’est-à-dire l’expérience de voir des motifs ou des connexions de données dénuées de sens en prendre un, à l’image de ceux qui voient partout des visages humanoïdes. La gouvernance algorithmique est apophénique par essence, estime Pasquinelli, puisqu’elle cherche des tendances et anomalies dans une reconnaissance paranoïaque et une construction arbitraire de motifs politiques.
L’oeil algorithmique est encore embryonnaire, malgré la croyance excessive en sa toute-puissance. D’abord parce que les algorithmes fonctionnent toujours sur un ensemble simplifié et limité de données malgré les promesses de la transparence totale, d’accès et de croisement de toutes les données. Ensuite, parce que selon les modèles mathématiques appliqués, les résultats peuvent varier, apparaître ou disparaître. Enfin, parce qu’on oublie trop souvent que les algorithmes influencent eux-mêmes le champ qu’ils sont censés mesurer, à l’image des boucles de rétroaction des données sur elles-mêmes…
Pour Pasquinelli, l’apophénie n’est pas seulement tirer un sens faux de données, mais c’est aussi tirer du sens pour l’avenir à partir de données passées. Selon l’essayiste, pour répondre à la gouvernance algorithmique, nous devons inventer d’autres stratégies que la défense de la vie privée et la régulation du panoptique algorithmique. Peut-être en inventant de nouvelles institutions capables d’intervenir à la même échelle que celle des calculs des gouvernements, peut-être en récupérant la puissance de calcul comme un droit fondamental à l’autonomie de la société civile. « Si l’anormalité retourne à la politique comme un objet mathématique, nous devons trouver une stratégie de résistance et d’organisation pour le siècle à venir, qui soit mathématique. »
Pour le dire autrement, ce que semble suggérer Pasquinelli, c’est qu’il faut produire d’autres modèles d’analyse de données pour délégitimer ceux qui sont employés. Pas sûr que ce soit si simple.

Contre « l’idéologie digitaliste »
Titulaire d’un Doctorat du Queen Mary University of London. Matteo Pasquinelli est l’auteur de nombreux essais comme Animal Spirits. A Bestiary of the Commons (2008), ou Media Activism (2002). Ses articles se trouvent en accès libre sur son site.


Poster un nouveau commentaire

idees numero 1

La revue papier.
Soutenez-nous, commandez-le
à votre libraire, faites-le connaître,
ou abonnez-vous en cliquant ici.

Nous ! | | CGU | Archives | Administration
Copyright © 2009 - 2016 Cicero| Tous droits réservés
La reproduction totale ou partielle sans permission est interdite.