ChatGPT : faire preuve d'intelligence

Thibault Prévost - - Médias traditionnels - Clic gauche - 71 commentaires

Cinq mois après son lancement, retour sur la réception de ChatGPT puis de GPT-4 par la presse généraliste française. Entre trompettes de l'Apocalypse, anthropomorphisation, angoisses de "Grand remplacement" et débats interminables sur l'avènement (ou non) de la machine pensante.

Vous reprendrez bien une rasade de ChatGPT ? Ce dimanche, cela fait cinq mois qu'OpenAI a lâché son chatbot sur le monde et modifié sans avertissement le paradigme de l'intelligence artificielle. Ça valait bien un petit bilan médiatique. De quoi a-t-on parlé ? Comment en a-t-on parlé ? Quels aspects ont été négligés, et pourquoi ? Repartons du Big Bang : le 1er décembre 2022,  l'agent conversationnel, jusque-là une technique au fonctionnement et aux enjeux assez nébuleux pour les non-initiés, se matérialise soudainement dans nos ordinateurs personnels. Disponible gratuitement sur un banal site web, comme n'importe quel autre service. Séisme. À peine le temps de s'y intéresser que le public s'y précipite comme à la foire, et ressort de là avec une fournée de questionnements ontologiques. Un million d'utilisateurs en une semaine, 100 millions en deux mois, record de l'histoire du web. Tout le monde parle de, et avec, la machine qui sait tout. L'éthique de l'IA s'invite dans les débats entre ami·es, au café, sur TikTok, dans les pubs YouTube des vendeurs de formations et dans les repas de famille du dimanche.

Il n'y aurait pourtant pas dû réellement y avoir de choc : entre les assistants vocaux embarqués sur nos téléphones depuis plusieurs années et les chatbots commerciaux en passe de (mal) remplacer les services clients en ligne et de (mal) nous aider dans nos démarches administratives, on aurait dû digérer ça sans problème. On sait comment parle un algorithme de langage naturel. Sauf que ChatGPT, espèce inédite de perroquet stochastique, se trouve pile dans la "vallée de l'étrange" : trop convaincant pour un robot, mais trop halluciné pour mériter le titre de conscience artificielle. Alors, c'est le drame. Mal à l'aise, forcés de repenser nos catégories hors du confort d'une traditionnelle dualité (humain-robot, vivant-inanimé, sujet-objet), nous sentons collectivement le sol s'ouvrir sous nos pieds, une conversation à la fois. ChatGPT devient cette entité nouvelle et hybride, cet Autre en quête de taxonomie sur lequel tous nos fantasmes, toutes nos angoisses d'altérité, peuvent alors être projetés. Est-ce vivant ? Intelligent ? Conscient ? Est-ce meilleur que nous ? Sommes-nous menacés sur le trône du vivant ? Allons-nous être remplacés ? ChatGPT peut-il nous priver d'avenir ? Panique ontologique à bord. 

 À nouvelle forme d'altérité identifiée, vieilles mécaniques de classification : examiner, évaluer pour finalement attribuer une place définitive sur l'échelle du vivant.

Nous sommes en décembre 2022, et le cadrage médiatique est déjà en train de se cimenter. Premier réflexe (et péché originel) des journalistes, en ce début de mois de décembre : "interviewer" la chose, puisqu'il est entendu qu'on a affaire à un Autre  anthropomorphisé. L'éprouver, l'observer, la passer au scalpel pour pouvoir ensuite délivrer un verdict d'intelligence, de sensibilité, de conscience (en d'autres temps, d'autres autorités lui auraient désespérément cherché une âme). À nouvelle forme d'altérité identifiée, vieilles mécaniques de classification : examiner, évaluer pour finalement attribuer une place définitive sur l'échelle du vivant. L'exercice est aussi stérile que la tentation est irrésistible (pensez aux journalistes en déficit de sommeil : la machine écrit l'article toute seule !). Libérationdégaine le premier, mais personne n'y coupe

Et chacun en fait ce qu'il veut, y projette ses biais éditoriaux, ses obsessions, ses peurs. L'interface est un golem que l'on sculpte à sa convenance. SurFrance Inter, ChatGPT gagne une voix (et même plusieurs). Sur BFMTV, image oblige, on dote le logiciel d'une silhouette humaine sur fond de code informatique vert dégoulinant (pour rappel, Matrix aura 25 ans l'année prochaine, il serait peut-être temps d'actualiser nos représentations). La palme de l'aveuglement idéologique revient enfin à Europe 1, où Sonia Mabrouk et Olivier Babeau essaient désespérément de savoir si le logiciel est woke ou islamo-gauchiste. Les journalistes subjugués interviewent un miroir grossissant, mais semblent ne pas s'en rendre compte. Rien n'a changé depuis Eliza, le "chatbot psychologue" de 1966 (repris par Georges Lucas dans THX 1138), dont le dispositif rudimentaire faisait néanmoins oublier aux utilisateurices qu'iels discutaient avec une machine. Soixante ans après, la distance critique est toujours portée disparue.

Ces premiers contacts entre professionnel.les de l'information et grand modèle de langage (LLM) préfigurent la grande majorité des angles qui seront ensuite retenus pour discuter de ChatGPT avec des expert·es. Après avoir repris ses esprits, la presse s'inquiète immédiatement pour "nos boulots" (dans un monde où le travail légitime l'existence, la perte du travail devient logiquement une angoisse existentielle).

Première victoire pour OpenAI : la machine à ne rien dire remplace parfaitement les toutologues de presse écrite.

France24, TF1 (plusieurs fois), Franceinfoet même le 28 Minutes d'Artes'angoissent : faut-il avoir peur du méchant chatbot ? Quels métiers la machine va-t-elle faire disparaître, muter, émerger ? À quelle heure la  "révolution", forcément "inquiétante" autre poncif des titres de presse qui gangrène jusqu'aux dépêches AFP reprises par la presse locale  aura-t-elle lieu ? Concours d'oracles sur les plateaux (pardon, de "prospective") et de bandeaux effrayés. Mention spéciale au Journal du Net qui réalise un combo de la flemme en demandant à ChatGPT de lui prédire quels boulots seront remplacés. Première victoire pour OpenAI : la machine à ne rien dire remplace parfaitement les toutologues de presse écrite.

Après la publication de GPT-4 (la dernière itération du robot conversationnel) le 14 mars dernier, une nouvelle étape est franchie dans la panique. Une certaine presse (celle de la droite conservatrice, usine à menaces imaginaires) annonce carrément un "Grand Remplacement" de l'espèce humaine par les robots conversationnels. Les spécialistes de l'effondrement civilisationnel sont réquisitionnés au front : Michel Onfray anticipe l'asservissement de l'humanité chez Sud Radio, la doublette Eugénie Bastié - Olivier Babeau papote "Grand remplacement" sur la chaîne YouTube du Figaro, Luc Ferry en remet une couche au FigaroVox, bref, les cavaliers de l'IApocalypse sont de sortie. Et surRTL, le chirurgien-urologue Laurent Alexandre précise la nature du "Grand remplacement" à Yves Calvi : "ChatGPT est de gauche et aime beaucoup les minorités." Il aurait même sa carte à la CGT, selon plusieurs sources proches du dossier. Sur LCP enfin, où l'on débat de la "fin de l'humanité" – sacré programme d'émission ! –, l'écrivain Marc Dugain est plus universaliste : selon lui, la "perfection" des intelligences artificielles va d'abord "concurrencer" l'humain puis le dépasser, inévitablement. C'est beau comme du Elon Musk, et ça sent bon la secte singulariste.

Au dernier étage du délire techno-eschatologique, la presse locale explore grâce à l'AFP le concept d'intelligence artificielle dite "générale" (AGI), ce moment très hypothétique et indéfinissable par nature (on y reviendra) où un programme informatique parviendra à "égaler" l'intelligence humaine. Au diable la prudence chez les DNAet Sud Ouest, l'AGI est au coin de la rue puisqu'OpenAI le dit. 

Surenchère indépassable : la Dépêche et les Numériques affirment que GPT-5 (dont on ne sait strictement rien à l'heure actuelle) préfigure la "superintelligence artificielle", dans un monument de bâtonnage d'article au conditionnel concocté par l'agence de presse française ETX Studio (ex-Relaxnews, propriété du groupe de communication Publicis). La source de cette dépêche ? "Plusieurs développeurs et journalistes [qui] se font en effet l'écho sur les réseaux sociaux". Là où la "superintelligence" passe, l'intelligence humaine trépasse.

Il y a quelque chose de désespérant à constater qu'à chaque cycle de hype autour de l'IA (le dernier date de 2016-2017), les mêmes erreurs journalistiques sont commises, qui construisent in fine le même récit idéologiquement biaisé. Première erreur : anthropomorphiser a priori le nouvel outil (jadis, le Watson d'IBM, hier les assistants vocaux, aujourd'hui les grands modèles de langage), leur donner une qualité d'Autre, alors que ce ne sont "que" de puissants outils d'autocomplétion. Seconde erreur : projeter en cet Autre fantasmé une volition, une intention menaçante – pour son travail, pour soi, pour l'Humanité tout entière. Comme si ChatGPT était indépendant de ses conditions de production et de dissémination, indépendant des projets d'exploitation des salarié.es auxquels le destine le patronat. 

Dernière erreur, plus narcissique : chercher une trace d'intelligence, d'émotion, de sensibilité, dans ce que Noam Chomsky décrit comme un simple assemblage stochastique de signes – à l'opposé du cerveau humain, qui fonctionne lui par heuristique (en générant des axiomes de "bon sens"  à partir d'un petit volume d'information). Oublier au passage que sans définition de l'intelligence humaine comme point de référence (ce qui serait tout aussi discutable), le débat est condamné à rester  un cul-de-sac épistémique : comment évaluer chez l'outil ce que l'on ne sait pas mesurer chez nous-mêmes? Quant aux divagations sur "l'intelligence artificielle générale", faut-il seulement rappeler qu'il s'agit en l'état d'une croyance techno-religieuse sans aucun fondement scientifique, défendue par une élite blanche issue des universités de Stanford et Harvard organisées autour d'un philosophe (Nick Bostrom) raciste, eugéniste et partisan d'un techno-fascisme global ?

Qu'on le dise et qu'on le répète : la panique morale artificielle d'une IA autonome destructrice déresponsabilise ceux qui la commercialisent et joue en leur faveur en leur permettant d'accumuler du capital-risque (en plein annus horribilis pour l'économie des start-up et sur fond de plan social massif des géants du numérique). L'IA est une façade et l'apocalypse est un argument de vente. Elle neutralise toute critique systémique et cimente un peu plus les systèmes d'oppression des populations marginalisées. Et les journalistes ont une responsabilité majeure dans ce cadrage dialectique, qui reprend sans nuance critique ni distance les éléments de communication d'OpenAI, Elon Musk, de Google et autres doomers. Les choix éditoriaux ont des conséquences immédiates sur la perception publique d'un sujet. Il est donc impératif d'en sortir, de penser contre ses archétypes, de se défaire du champ lexical de l'angoisse (les titres et bandeaux à la "faut-il craindre?", "menace pour l'humanité", et ses infinies variantes), et d'arrêter de se faire complice des pires déjections de la pensée occidentale en employant l'expression "Grand remplacement" à tout va (Arte, c'est toi que je regarde tout particulièrement).

Il faut abandonner les réflexions prospectives au conditionnel entre futurologues du dimanche, car elles ne valent pas mieux que la divination. La presse s'est déjà faite hypnotiser deux fois en deux ans, avec la même approche de blitzkrieg superlatif, par les apôtres des cryptomonnaies puis du métavers –deux "révolutions" autoproclamées qui pourrissent à la décharge des concepts marketing. Va-t-on enfin apprendre à traiter ces grandes déclarations comme les simples effets de manche qu'elles sont? Il n'y a pas de "révolution" à l'horizon, mais une écologie des systèmes techniques. Il n'y a pas d'événement, pas d'avant/après : la transformation des sociétés par les outils informatiques est un processus d'habituation continu. Les agents conversationnels modifient la société, ici et maintenant. Nous flottons déjà dans le techno-cocon. Comme le résume sur France Inter la maîtresse de conférence à Science Po et spécialiste de la géopolitique des plateformes Asma Mhalla, l'une des rares à parler du sujet au présent sur les plateaux : "L'IA est déjà omniprésente partout, et le monde ne s'est pas effondré." Mais le quotidien, pendant ce temps-là, s'aggrave, à vitesse constante.

Ne nous laissons pas submerger par un récit fallacieux et délirant alimenté par une poignée de Cassandre comme Geoffrey Hinton, pionnier de l'IA  fraichement débarqué de Google, qui affirmait cette semaine chez Reuters (puis dans toute la presse française et internationale), dans un calme monacal, que l'IA est plus dangereuse que... le changement climatique. Face à ce genre d'ineptie, faisons preuve d'intelligence et tentons de construire d'autres récits. Des récits qui commencent avec nous, nos intérêts communs, nos luttes et nos hétérotopies. Demandons-nous, ici et maintenant, si les agents conversationnels peuvent œuvrer contre les inégalités et les oppressions. Interrogeons-nous : ChatGPT est-il un outil d'émancipation collective ? Peut-il seulement le devenir ? Spoiler alert : dans ce système économique, non. Pour reprendre Ted Chiang dans The New Yorker, l'IA agirait plutôt comme une sorte de cabinet McKinsey – un outil offert aux entreprises pour faire le sale boulot sans se salir les mains, qui renforce in fine le statu quo inégalitaire. Parlons, comme le fait le Monde, de l'impact néfaste du système sur la fracture numérique en France. Rappelons, comme le fait sans relâche le chercheur Antonio Casilli, que ChatGPT a des coûts matériels mais surtout humains, à l'heure où les micro-tâcherons kenyans payés deux dollars de l'heure pour modérer la pseudo-IA viennent de former le premier syndicat du genre.

Réitérons, comme il le fait chez le Vent Se Lève, que les récits eschatologiques sur la disparition du travail sont un prétexte à l'atomisation de la masse salariale. Que loin de nous libérer de l'aliénation, les agents conversationnels risquent surtout de nous donner du travail supplémentaire (des tâches incessantes de vérification du contenu généré, par exemple), comme l'affirme Ian Bogost dans The Atlantic. Que ChatGPT sert déjà de croquemitaine au patronat contre toute velléité d'organisation collective : filez doux, ou j'embauche des robots. Observons, comme Vice, comment la vague acide des articles synthétiques attaque déjà les fondations de Wikipédia. Faisons un pas de côté, comme le fait Eric Sadin pour le Figaro (comme quoi) : voyons l'hybridation entre vies humaines et interfaces numériques non comme l'inéluctable futur de l'évolution, mais comme un outil supplémentaire d'asservissement des existences individuelles aux logiques marchandes du Capital. Faisons enfin un détour salutaire chez Paul B. Preciado, spécialiste des altérités, quand il assène à Libération qu'il n'y a pas d'Autre chez ChatGPT, rien que notre reflet kaléidoscopique, "nos mots publics et privés, politiquement situés puis décontextualisés, coupés, hachés, mixés, recuits et vomis à nouveau sur notre écran".

Sauf qu'il est possible de dire non. Non, le code ne fait pas inéluctablement loi.

Le plus grand danger, en tant que journalistes ou utilisateurs lambda, c'est de nous abîmer dans ce reflet. Jusqu'à confondre un dispositif industriel extractiviste mis au service d'une économie de l'accaparement – des ressources énergétiques, du pouvoir, du capital, des mots, de l'attention – avec un être sensible ou pire, avec un idéal à atteindre. La mise en compétition obsessionnelle, frénétique, entre ChatGPT et cerveau humain, relayée et amplifiée par des journalistes flippés de perdre leur plus-value dans l'économie (déjà précaire) de la connaissance, installe, en creux, une injonction cybernétique perverse : il va falloir apprendre à parler, réfléchir, raisonner et produire comme la machine, sous peine d'être éjecté de la caste des cols blancs algorithmés. Devenir compatible avec leur monde standardisé, probabiliste et modélisable, pour espérer avoir sa place dans le futur. 

Ces outils ne sont pas conçus pour notre bien collectif. Il faudrait pourtant accepter ces nouveaux "cadres cognitifs autocentrés", aux antipodes de l'intelligence collective et du partage des connaissances, alors que la coopération, le mutualisme et la défense des communs, nous dit la philosophe Anne Alombert,  représentent le seul remède au cauchemar en cours. Sauf qu'il est encore possible de dire non. Non, le code ne fait pas inéluctablement loi (rappelez-vous des Google Glass, des télés 3D, du métavers hideux de Zuckerberg). Non, le récit déterministe de l'IA n'a pas à se muer en prophétie auto-réalisatrice. Non, nous ne voulons pas troquer notre capacité de délibération contre les énoncés statistiques d'une usine à bullshit, ni notre agentivité collective contre la foi transhumaniste qu'une super-intelligence synthétique s'apprête à nous sauver… ou nous exterminer.

Nous sommes bien plus intelligent · es que ça.

Lire sur arretsurimages.net.