Accueil Influenceurs Idéathèque Couveuse Panorama

Chronique du nouveau monde connecté 2

L’angoisse du possesseur d’iphone au moment d’appuyer sur « On »

jeudi 5 février 2015, par Jacques Secondi

La face sombre du cerveau collectif et de son intelligence connective

« Les ordinateurs étaient, à l’origine, des machines très grossières et distantes, dans des pièces climatisées où travaillaient des techniciens en blouses blanches. Ils sont ensuite arrivés sur nos bureaux puis sous nos bras et maintenant dans nos poches. Bientôt, nous n’hésiterons pas à les mettre dans nos corps ou dans notre cerveau ». La prophétie du romancier Jean-Michel Truong qui ouvrait « Demain, les posthumains » l’essai de Jean-Michel Besnier sur la convergence homme machine, s’était réalisée. Le smart phone, version google ou Iphone, qui permettait l’accès permanent à l’intelligence collective représentée par internet était bien sur le point de devenir la première version des prothèses cérébrales qu’imaginaient les prophètes du transhumanisme. Cette extension décisive de l’intelligence individuelle était riche de promesses de performances augmentées mais tout aussi lourde de menaces d’assujettissement à un nouveau « cerveau collectif », inquiétant lorsque celui-ci promettait de se montrer étranger au hasard et à l’intuition, lieu d’un éternel présent où tout s’affichait simultanément sur la toile, générateur de l’instantanéité des réactions et des décisions, inspirateur de prévisions auto-réalisatrices sur les comportements des foules, des individus et des marchés.

L’attraction des continents virtuels

L’angoisse du possesseur d’iphone au moment d’appuyer sur « On » et de se retrouver connecté, identifié, géo-localisé par le nuage intelligent que représente désormais l’internet allait-elle se matérialiser ? L’attraction exercée par les continents virtuels, leurs puits de connaissance, leurs plate-forme de collaboration, la seconde mémoire qu’ils offraient aux utilisateurs invétérés des moteurs de recherche, ne pouvait qu’augmenter. En même temps, le téléphone ordinateur de poche, premier pas décisif vers une connexion permanente à la toile, prémisse de la greffe homme machine dont rêvaient les promoteurs du post humain, ressemblait beaucoup à une sorte de prothèse cérébrale. D’où le doute : quel risque courait l’utilisateur à s’y assujettir pour devenir en quelque sorte un simple neurone d’un ensemble intelligent qui le dépassait ? Telle était la question.

Intelligence supérieure

Les auteurs de science fiction l’avaient anticipé depuis longtemps : l’espèce humaine aurait un jour à traiter avec une forme d’intelligence supérieure à la sienne. Il lui faudrait s’y soumettre ou décider de résister. Exactement comme l’astronaute Dave Bowman qui, dans une scène célèbre du film « 2001 l’odyssée de l’espace » de Stanley Kubrick décidait de se libérer de la férule de Hal, l’ordinateur intelligent qui avait manqué causer sa perte et tenté, mais sur ce point les interprétations divergaient, de l’éloigner de sa quête de Dieu. Certains avaient imaginé que cette intelligence pourrait venir d’un autre monde. D’autres, comme Georges Orwell, avaient eu la clairvoyance de penser que c’était l’homme lui-même qui allait créer cette nouvelle entité, avec sa propre technologie. C’était chose faite depuis l’interconnexion des ordinateurs et l’intelligence collective d’une ampleur inédite qui en était résultée. La métaphore imaginée par Joël de Rosnay dans « l’homme symbiotique » dès 1995 était devenue réalité : les nuées d’informations stockées dans les centaines de milliards de puces de silicium qui, telles des cellules nerveuses, criblaient désormais la planète fonctionnaient bien un peu comme un cerveau dont chaque être humain derrière son écran figurerait un neurone. Joël de Rosnay, grand admirateur du roman d’anticipation de Fred Hoyles avec son nuage noir de connaissances infinies qui rendait fou celui qui cherchait à s’y connecter, évoquait l’émergence d’une macro-vie à l’échelle planétaire, en symbiose avec l’espèce humaine. « Cette vie hybride , à la fois biologique, mécanique et électronique, est en train de naître sous nos yeux. Nous en sommes les cellules » écrivait le scientifique, qui définissait par la même occasion le défi auquel lui semblait confrontée l’humanité : « après l’homo sapiens cherchant par son intelligence à dominer les espèces vivantes, l’homo faber maîtrisant outils et machines, ou encore l’homo economicus , consommateur et prédateur, voici venu le temps de l’homme symbiotique vivant en harmonie avec un être plus grand que lui ».

Internet : le « nuage » suiveur

Internet, un système informatique d’une puissance inouïe, était bel et bien sur le point de franchir une étape supplémentaire de son union intime avec les sociétés humaines. Le quotidien de l’homme connecté fourmillait déjà de ses multiples interventions. « L’ordinateur connecté inclut la plupart de nos autres technologies » écrivait Nicolas Carr dans une analyse provocatrice sur la propension de Google à rendre l’humanité « imbécile », « Is google making us stupid ? » (The Atlantic, juin 2008). « Il devient notre plan de travail et notre horloge, notre imprimerie et notre machine à écrire, notre calculatrice et notre téléphone, notre radio et notre télévision » commentait l’auteur, « notre bibiothèque et notre pense-bête » pourrait-on ajouter. « Ce n’est qu’un début, promettait Joël de Rosnay, voici l’arrivée des « environnements cliquables », du « nuage » (l’Internet ubiquitaire) et des interfaces « biotiques » entre le cerveau et les ordinateurs ». Sans parler du paysage « cliquable » : « notre environnement devient l’ordinateur du futur. Puces RFID dans les objets, capture des mouvements, reconnaissance des visages, géo-localisation, créent une symbiose étroite entre l’homme et les ordinateurs, comme prédit dans L’homme symbiotique. Le « nuage » nous suivra dans tous les recoins du monde ».

Et puis il y avait les chiffres qui, eux aussi, laissaient entendre que le point d’inflexion qui allait faire prendre cette vaste mayonnaise numérique était proche : 3 milliards d’individus déjà connectés, soit plus de 40 % de la population mondiale, 2 milliards inscrits sur les réseaux sociaux à évaluer, recopier, liker, retransmettre, reformater des dizaines de milliards de bribes d’informations, 3 mds sur 7 milliards d’habitants dans 8 ans, 3,5 milliards de mobiles dans le monde, plus que d’ordinateurs et de télévisions réunies, dont 1,1 milliard de smartphones. « Il faut y ajouter la connexion entre eux de 700 milliards d’objets, capteurs, calculateurs, caméras, » ajoutait Joël de Rosnay qui prévoyait que, à un moment donné, le système allait changer de nature et acquérir une autonomie, un peu comme, à zéro degré, sans prévenir, les molécules d’eau se transformaient en cristaux de glace.

Brain clouding

Chacun était-il prêt pour le grand saut ? Voire. A chaque introduction d’une nouvelle technologie, des voix se faisaient entendre pour s’inquiéter de l’avenir. Socrate se préoccupait, en son temps, des conséquences de l’invention de l’écriture qui allait, selon lui, générer la paresse mentale et, sans instruction appropriée, donner à chacun la fausse impression de posséder une grande quantité de connaissances. Le corps enseignant confronté aux bavardages des élèves sur facebook, ask.fm, snapchat, instagram, ... ou découvrant atterré les copies remplies à coup de téléchargement sur internet pouvait y voir un lointain écho de la situation actuelle. Le philosophe, comme les cassandres modernes, avait mésestimé la fantastique fertilisation croisée des esprits qu’allait provoquer le nouvel outil. Cependant, il avait raison, quant à la nécessité de comprendre quelle modification en profondeur de la lecture du monde induisait une nouvelle technologie. Nicolas Carr citait l’exemple frappant de l’horloge mécanique qui, à partir du14ème siècle, avait commencé à dissocier le temps des événement humains ou naturels et contribué à créer la croyance en un monde indépendant, constitué de séquences mathématiquement mesurables. La capacité à compter le temps avait, par la suite, profondément transformé l’organisation humaine, du taylorisme au pilotage des fusées spatiales. La division mécanique des plages horaires avait imposé, en même temps, une distance avec l’ancien monde dont la perception reposait sur une expérience directe de la réalité, via le mouvement du soleil et de la lune, ou la succession des saisons et les pulsations de tous les autres rythmes anthropologiques.

L’analogie s’imposait avec le cerveau collectif internet à la puissance fascinante et dont la capacité à filtrer la réalité était tout aussi impressionnante. « Nous pouvons être sûr , expliquait Nicolas Carr que les circuits neuronaux tissés par notre utilisation itérative du net seront différents de ceux fabriqués aux époques où chacun, se concentrant longuement sur un sujet, s’adonnait exclusivement à la lecture linéaire caractéristique des écrits sur papier ». De la même manière que la lecture des idéogrammes touchait des parties du cerveau des Japonais et des Chinois qui n’étaient pas stimulées chez les utilisateurs d’alphabets, Google modifiait notre configuration cérébrale conclut l’auteur.

L’exemple de la « net generation », la génération née avec internet, qui passait 4500 heures par an connectée à la nouvelle conscience collective où chacun allait chercher un réconfort social, une opinion sur un film, un devoir à télécharger, et seulement 80 heures à discuter avec ses parents aboutissait à la métaphore des « empty heads » citée par Joël de Rosnay. Michel Serre avançait une image plus positive où l’individu moderne Comme dans le mécanisme du « cloud computing » où les anciens PC devenus simples terminaux dépourvus de disque dur vont chercher leurs données à l’intérieur du nuage internet, les cerveaux vides des individus téléchargent dans la matière grise commune les idées et les opinions dont ils ont besoin pour fonctionner à un instant donné.

Le règne de l’irréfléchi

Puisqu’il était très probable que la greffe continue à l’internet, via l’iphone et les smartphones pilotés par l’androïde, le système d’exploitation de téléphone portable de Google, modifierait en profondeur les comportements, il fallait s’interroger sur les qualités de ce « cerveau collectif ». Quel était le point commun entre les trois princes de Serendip découvrant par hasard les indices qu’ils cherchaient, l’étudiant refusé à l’embauche parce que son futur employeur avait retrouvé sur Face book des photos de celui-ci montrant ses fesses à l’assistance d’une soirée étudiante trop arrosée et le ministre promettant de manière tout à fait irréaliste d’installer des portiques détecteur de métaux à l’entrée de tous les lycées de France après l’agression d’un professeur à l’arme blanche ? Réponse : tous avaient été victimes des facultés particulières du cerveau commun, privé d’intuition, abolissant le droit à l’oubli et créant une sorte de fièvre de l’instantanéité peu propice aux décision réfléchies.

Du présent éternel

« Tout ce que vous ferez ou direz pourra être retenu contre vous » : le jeune homme évincé de l’emploi auquel il postulait avait été confronté à l’incapacité du nouveau cerveau collectif à faire la différence entre le présent et le passé. Le cliché que son ex futur employeur avait découvert sur internet pouvait bien avoir été pris cinq ans auparavant, à une époque d’insouciance juvénile, son exposition en quelque sorte permanente sur le net en faisait une composante de l’éternel présent de la toile. Une sorte de négation du droit à l’oubli qui abolissait la notion d’histoire évolutive et de changement. L’individu de l’imaginaire internet devenait la somme des informations disponibles sur son compte à un moment donné, sans notion de chronologie ni de hiérarchisation. La petite phrase de l’homme politique prononcée loin dans le passé devenait son opinion pour toujours sur tel ou tel sujet. L’opinion de la jeune femme publiée sur un blog à destination de son cercle d’amis, se transformait en vérité opposable à ses relations professionnelles. Derrière, on voyait se profiler une société de transparence absolue, où les petits mensonges qui adoucissaieent les rapports sociaux n’existaient plus dès lors qu’une « preuve » par l’image ou le texte avait été déposée sur le cerveau collectif.

De la vitesse absolue

Pressé d’apaiser l’émotion générale suscitée par la violence à l’école, le ministre de l’éducation s’était, lui, laissé gagner par la surchauffe de l’organisme internet intelligent où les opinions se font et se défont en temps réel et où il faut réagir à la même vitesse. Loin de la Une du Figaro et du Monde ou des titres du JT, l’opinion publique était largement désormais celle de l’internet, en ébullition permanente à l’intérieur de cette longue traîne de milliards de sites et de blogs qui, tels des fourmis transportant des objets bien plus gros qu’elles, contribuaient à former d’énormes nuages d’opinion collective. Aux Etats-Unis, des agences comme mediapredict.com ou newsfuture.com ou en France Tendances Institut l’avaient parfaitement saisi et vendaient cher leurs analyses de tendances tirées de coups de filets dans les eaux profondes des fleuves de commentaires que charrie l’internet. Le problème était que tout cela allait très vite. Bien trop vite au goût du philosophe Paul Virilio, critique de l’extérieur du système, avec qui il fallait communiquer par La Poste parce qu’il refusait l’utilisation des courriers électroniques qui, selon lui, aplatissaient le temps et abolissaient la géographie. Après la révolution industrielle marquée par la standardisation, la révolution informationnelle nous conduisait vers la synchronisation considèrait-il. « C’est la rapidité des échanges et le temps quasi simultané qui, désormais, domine la vie sociale. Cela privilégie, voire cela exige le réflexe conditionné au détriment de la réflexion en commun. La démocratie qui s’apparente au sondage automatique ou à l’audimat bascule alors dans la tyrannie de l’instantanée » jugeait en substance l’auteur du « futurisme de l’instant, stop eject » (Galilée) dans un entretien visionnaire accordé au Monde de l’éducation en décembre 2000.

De l’absence d’intuition

D’autres victimes du cerveau collectif, s’il avait existé à l’époque où leurs aventures avaient été écrites, auraient été les trois princes de Serendip, l’autre nom de Ceylan en vieux Persan. Les trois personnages de ce conte oriental tombaient par hasard sur des indices sans rapport apparent avec leur quête mais qui, en réalité, allaient se révéler de précieux éléments de compréhension de ce qu’ils recherchaient. Le philosophe anglais Horace Walpole avait vu dans la « serendipity » une métaphore de la faculté à intégrer l’imprévu de manière créative, tel Newton regardant tomber la pomme. C’est bien ce qui se produisait lorsqu’un individu explorant les rayonnages d’une bibliothèque, se laissait happer par un ouvrage sans rapport avec celui qu’il recherchait et qui, néanmoins, allait créer dans son esprit de nouvelles associations enrichissantes. Les yeux de la bibliothèque internet que représentait Google n’avaient pas cette capacité. La mathématique parfaite qui définissait les algorythmes des moteurs de recherche ne laissait, par définition, aucune place au hasard, d’autres auraient dit « à la main de Dieu ». Mais pouvait-on imaginer une fonction « recherche aléatoire » sur Google, qui consisterait à admettre qu’une autre dimension que celle de la logique introduite dans la machine était capable de proposer un choix à l’individu derrière l’écran. Pour que l’imprévu puisse se manifester, il aurait fallu aussi que les ordinateurs comprennent le langage humain comme les humains se comprenaient entre eux avec leur langage. C’est à dire via les symboles exprimés par les mots, ressentis par chaque individu d’une manière pas très différente mais jamais tout à fait la même que son semblable. Le plus fort était que certains semblaient sérieusement engagés dans cette voie. Pierre Levy, l’un des co-inventeurs des différents concepts de l’intelligence collective du cyberespace - « intelligence connective » préfèrait considérer Joël de Rosnay- , affirmait travailler depuis une quinzaine d’années à l’élaboration d’un langage spécifique, l’IEML (Information Economy Meta Language). Il allait s’agir, selon lui, d’un « métalangage, qui traduirait les langues naturelles et les classifications de concepts (ontologie en informatique), mais qui serait également "calculable", proche du "langage mathématique" utilisé par les ordinateurs ». De quoi faire se retourner dans leur tombe Freud et Jacques Lacan…

De la réalité diminuée

Au bout du chemin, rêvaient les prophètes du cerveau collectif, il y aurait la fusion harmonieuse entre l’homme et ses technologies. L’une des vertus de la nouvelle intelligence artificielle que représentait Google ou les plate formes collaboratives serait à leur yeux d’améliorer les performances du genre humain, comme étaient censées le faire les autres technologies dites « convergentes », bio et nano technologies, qui annonçaient l’avènement du Cyborg, moitié homme, moitié machine, au corps entretenu par des nanorobots et bénéficiant de l’assistance d’une intelligence non biologique. C’était le fantasme de « l’homme augmenté ». Avant d’en arriver là, on pouvait prévoir l’avènement plus immédiat d’une réalité « commerciale » dérivée des technologies militaires. L’individu connecté et géolocalisé pouvait se déplacer dans les méandres d’une réalité pilotée par ordinateurs, où les cibles à localiser qui s’inscrivent sur le cockpit du pilote de chasse étaient remplacées par les points de vente où il était conseillé d’entrer, profilées sur le pare brise ou les lunettes du consommateur guidé par son GPS. Une version ultime de la société du spectacle de Guy Debord, l’esthétique Matrix 1 en plus, où une sorte de réalité diminuée aurait complètement remplacé l’expérience directe du monde et où les citoyens, tels des touristes incapables de lever le nez de leur guide de voyage, n’iraient que là où Google leur conseillerait d’aller.


Poster un nouveau commentaire
Nous ! | | CGU | Archives | Administration
Copyright © 2009 - 2016 Cicero| Tous droits réservés
La reproduction totale ou partielle sans permission est interdite.