ONU, Israël, Gaza : le simulacre des simulations
Thibault Prévost - - Coups de com' - Clic gauche - 34 commentairesÀ court d'influence diplomatique, l'ONU a mandaté une start-up d'IA pour simuler Israël et la Palestine et tester des solutions. En miroir, Israël collecte lui aussi des données pour optimiser son massacre. IA de paix, IA de guerre : un même processus de déshumanisation.
Rétrospectivement, c'était inévitable. L'objet politico-médiatique qu'est l'invasion de la Palestine allait nécessairement finir par croiser la route de l'intelligence artificielle, l'autre objet politico-médiatique catalyseur de WTF de l'année 2023, pour nous offrir la collaboration la moins inspirée de la grande histoire du techno-solutionnisme. C'est chose faite et, grâce à un article de Wired publié le 2 novembre dernier, on connait le nom des gagnants du concours Lépine de l'indécence : la start-up Culture Pulse, soutenue par... l'ONU. Et c'est déjà plus inattendu. Pourtant, comme le dévoile Wired en nous priant dès le chapô de "ne pas rouler des yeux" (ce qui n'est jamais bon signe), les faits sont là : en août dernier (à leur décharge, donc, avant l'attaque du 7 octobre et l'invasion militaire en cours), l'ONU a embauché Culture Pulse pour développer un modèle d'IA capable d'imaginer, puis de tester, des "solutions" au conflit israélo-palestinien. Et là, je vous vois, mauvais esprits, en train de rouler des yeux. Alors sachez que les fondateurs de Culture Pulse, F. LeRon Shults et Justin Lane, ont conscience que leur projet puisse paraître, disons, un peu agaçant, et s'empressent de préciser que "le modèle n'est pas conçu pour résoudre la situation ; il est fait pour comprendre, analyser, et obtenir des informations sur la manière d'implémenter des politiques et des stratégies de communication." Et si vous commencez à sentir le doux fumet de la techno-bullshit, vous êtes de mauvais esprits.
Certes, normalement, Culture Pulse ne fait pas exactement dans le diplomatique. La start-up slovaque se présente comme une entreprise de "deeptech", un néologisme qui désigne les entreprises qui "proposent des solutions innovantes et durables face aux problématiques et défis du XXIème siècle" (la définition est fournie par Maddyness, le bien-nommé "média préféré des entrepreneurs"). C'est tout de suite plus clair. En avril, Culture Pulse a récolté un million d'euros de financement pour développer son affaire. Dans un article, elle est décrite comme"une start-up d'analyse de réseaux sociaux", dans un autre, elle vend "une IA capable d'analyser les émotions humaines".
La vérité est entre les deux. Son fonds de commerce, c'est le big data et l'analyse prédictive, comme tout le monde. Son produit, c'est la vente de simulations informatiques de communautés (virtuelles ou IRL) à des marques pour qu'elles y "testent leurs messages sans risque jusqu'à ce qu'elles soient satisfaites du contenu et de la réaction du public". Du bon vieil A/B testing, en langage marketing, sauf que le panel-test humain est généré par une IA, et qu'on peut simuler des infinités de scénarios dans l'espace-temps malléable du logiciel, jusqu'à obtenir le taux d'engagement maximal de la communauté visée. La start-up assure que son système de prédiction d'émotion est fiable "au-delà de 95%". Tout ça pour seulement 49 dollars par mois.
Entre deux contrats pour des community managers, CulturePulse propose donc son simulateur aux institutions internationales, aux universités, aux think tanks, bref, à tout ceux qui cherchent la paix dans le monde. Parce qu'après tout, ça mange pas de pain, c'est bon pour le storytelling, et puis le marketing et la politique, c'est un peu la même chose, non? Et ça marche. Tels des super-héros Marvel, on a pu croiser Shults et Lane sur l'île grecque de Lesbos, en train d'essayer de résoudre la crise des réfugiés syriens, puis en Norvège, pendant le Covid, à filer un coup de main au gouvernement local dans la lutte contre la désinformation. Plus tôt cette année, en collaboration avec l'institut Woolfe de l'université de Cambridge, le logiciel a été déployé pour simuler les sociétés post-conflit au Soudan du Sud, en Irlande du Nord et dans les Balkans, en analysant une base de données de 52 millions d'articles de presse. Le système, grâce à son extraordinaire puissance de calcul, a fait une découverte majeure : pour panser les plaies de la guerre, les responsables politiques locaux doivent insister sur l'unification. Et hop, "250 millions de dollars et deux ans de travail"économisés à l'université de Cambridge. Et hop, un petit coup de vernis éthique sur l'entreprise - l'IA qui aide à installer la paix dans le monde, c'est autrement plus vendeur que l'IA qui simule des campagnes de pub numériques pour des multinationales. Ça fonctionne en tout cas sur Wired, qui avale la couleuvre avec le sourire.
Mais ne soyons pas mauvaises langues. La méthode de Shults et Lane, c'est du solide. Du scien-ti-fique. Pour nous convaincre du sérieux de la démarche, Wired nous apprend qu'en août, les deux chercheurs se sont rendus en Israël et en Cisjordanie pour collecter des données "auprès des responsables des Nations unies et des ONG locales", durant "environ une semaine". Une "semaine entière" a ensuite été consacrée à "extraire des données" du côté de l'ONU pour comprendre ce qu'attendait exactement l'institution (les paramètres exacts sont confidentiels). Les deux chercheurs n'ont pas eu accès à la bande de Gaza, c'est ballot. Pas de problème : les données de terrain sont jugées suffisantes pour commencer à travailler à la résolution du conflit. L'intelligence artificielle fera le reste.
Le logiciel, dévoilé le 10 octobre, a pour nom Palestine-Israel Virtual Outlook Tool (Pivot).Il est décrit comme un "modèle d'IA multi-agent" capable de créer "une
version virtuelle de la région [...] qui réplique chaque personne en
incluant la démographie, les croyances religieuses et les valeurs
morales", et plus de 80 variables, parmi lesquelles "la
colère, l'anxiété, la personnalité, la morale, la famille, les amis, la
situation financière, l'inclusivité, le racisme et le discours de
haine". Un logiciel qui "modélise des sociétés artificielles
entières, composées de milliers ou de millions d'agents simulés en
intelligence artificielle adaptable qui sont reliés les uns aux autres,
et conçus pour être le plus réaliste psychologiquement et
sociologiquement. Autrement dit, un laboratoire artificiel avec
lequel vous pouvez jouer sur votre PC, d'une manière inimaginable
éthiquement dans le monde réel", dixit fièrement Shults au magazine étasunien.
Voilà. Le mot est lâché : jouer. On simule Israël et les Territoires palestiniens occupés sur un ordinateur, et on modifie les variables pour voir ce que ça donne. On fait de l'A/B testing diplomatique. Sim City 3 000, édition bande de Gaza. On construit, patiemment, et une fois que le vivarium numérique tourne correctement, on essaie des trucs. On sort les cheat codes. On joue à la paix, on joue à la guerre, on monte des curseurs. Haines séculaires. Xénophobie. Désir de vengeance. Fondamentalisme religieux. Surveillance généralisée. Tremblement de terre. Guerre civile. Incendie. Apartheid. Accès à l'eau potable. Coupure d'électricité. Coupure des réseaux de télécommunications. Invasion terrestre. Épuration ethnique. On note les résultats, on formalise tout ça, on envoie à l'ONU. Pas besoin de réfléchir à l'éthique de la démarche : tout ça, c'est pour de faux. Comme quand on mettait les Sims dans la piscine, qu'on enlevait l'échelle, et qu'on les regardait se noyer en hurlant en simlish – après tout, ce ne sont pas de vraies personnes, juste des avatars, de pauvres PNJ sans âme.
Face à l'énormité du cauchemar qui étouffe le peuple gazaoui, face aux tapis de bombes et aux 11 000 corps qui s'entassent dans les décombres de Gaza, cette information peut sembler anecdotique. Je crois au contraire qu'elle est symptomatique, aussi bien de la perte d'influence des Nations unies dans les dialogues internationaux actuels, de l'hubris toxique de l'industrie de la tech, et des dangers profonds que recèle le mariage entre technique et rapports de domination coloniaux. Vanité toute occidentale d'abord, que deux étasuniens valsant d'une zone de crise à une autre, algorithme sous le bras, pour sauver le monde moyennant rétribution – rien de nouveau sous le soleil du white saviorism, ce "syndrome du sauveur blanc" qui frappe le secteur de la tech occidental à chaque nouveau désastre loin de ses bases. Arrogance techno-solutionniste ensuite, à penser que passer une semaine sur place, sans visiter Gaza, suffira à prédire l'avenir de la région avec 95% de précision. Indécence, enfin, à penser réduire l'incessante tectonique des rapports ethniques, religieux, historiques, culturels, coloniaux et militaires qui constituent la matière en fusion du quotidien israélo-palestinien à un ensemble de données non seulement analysable mais prévisible (!) grâce à la technomancie d'un algorithme de machine learning habituellement utilisé pour simuler des consommateurs de publicité.
Comment l'ONU en est-elle arrivée à confondre marketing et diplomatie ? Selon Shults, l'agence internationale "a fait comprendre [à CulturePulse] que dans la situation actuelle, elle est à court de solutions de facilité". Ça tombe bien, l'IA est le dispositif d'évasion parfait à placer entre soi et ses responsabilités, et les start-up désireuses de servir d'intermédiaire contre argent public et comm' gratuite aux accents "humanitaires" se bousculent au portillon. L'"IA pour la paix" n'est pas une stratégie, c'est un paravent à l'obsolescence. Et le business de la sous-traitance diplomatique se porte bien : l'ONU possède même depuis 2020 une "cellule innovation", chargée d'"explorer des approches transversales à la prévention de conflits, au rétablissement et au maintien de la paix pour un futur plus durable". Au menu : des chatbots pour résoudre la guerre civile au Yémen et en Libye, des projets similaires en Bolivie, au Liban, de la réalité virtuelle en Colombie, des posters pour la paix en réalité augmentée, une bonne dose de machine learning et d'IA générative pour rester dans le coup, et une séance d'auto-conviction intitulée "La technologie peut-elle débloquer la paix dans le monde ?" organisée à Doha en 2019. Beaucoup de paillettes pour pas grand-chose.
Il y aurait de quoi rire, si la situation n'était pas aussi grave. Car ces projets ne sont pas uniquement des pertes de temps et d'argent ; ce sont autant de possibilités d'extension pour le colonialisme de la donnée, dans lequel d'ambitieuses start-up du Nord profitent de l'aubaine de crises politiques dans les pays du Sud pour tester de nouvelles méthodes de collecte et d'analyse automatique de données, sans garde-fous institutionnels locaux mais avec la bénédiction complice de l'ONU, garante internationale ultime de la moralité de la démarche, dont le secrétaire-général est désormais réduit à mendier des cesser-le-feu sur Twitter.
Comme le savent probablement Shults et Lane, l'intelligence artificielle n'est pas plus artificielle qu'elle n'est intelligente. Développer un système d'analyse de données requiert au préalable de collecter de la donnée, beaucoup de données, qui n'est rien d'autre qu'une représentation symbolique de l'information. Certaines informations comme l'âge, le genre ou l'adresse, sont facilement encodables. D'autres, comme les systèmes de croyances, les valeurs morales ou les émotions, sont en revanche impossibles à formaliser. Les trous sont alors comblés par les biais des concepteurs, incorporés dans l'architecture même du logiciel.
C'est là que ça se complique. La récolte de données devient alors un exercice de pouvoir : la réduction d'un monde et de ses habitants à une approximation statistique. Loin d'être un "jumeau numérique", le monde simulé se résume à un ensemble de règles abstraites, sa population un échantillon de comportements. Le simulacre aplanit les nuances, oblitère les particularismes, simplifie les complexités. Et rejette, mécaniquement, les groupes marginalisés du corps social. Que produit invariablement cette double opération de réduction et d'abstraction ? Une paraphrase du réel. Un archétype. La production d'un regard. La carte n'est jamais le territoire, et certainement pas lorsque les cartographes n'y passent qu'une semaine et n'en visitent que la moitié. Mais une fois encore, rien n'arrête l'occidental convaincu de sa supériorité technique. Pas même le risque de bâtir une machine à "amplifier la vision du monde hégémonique", résume la chercheuse et techno-critique Timnit Gebru. Ici, celle d'Israël, qui contrôle aussi bien le territoire que le récit qui s'y déroule.
Cette diplomatie de la simulation risque enfin de produire un dernier effet, particulièrement pervers, de déshumanisation des populations, particulièrement celles altérisées au préalable par d'autres systèmes de représentation. Les hommes, femmes et enfants analysés et simulés deviennent des graphes, une constellation de points de données. Ils sortent du périmètre de l'espèce biologique. La tactique est vieille comme la colonisation, et ses effets sont encore aujourd'hui puissants : en 2015, raconte Vox, des chercheurs étasuniens ont demandé à un échantillon largement composé de Blancs de noter différents groupes (nationaux, ethniques, religieux, etc) selon leur "humanité", leur appartenance à l'espèce humaine. Les groupes les moins considérés comme humains étaient les groupes "Arabes" et "musulmans", considérés comme "humains" par seulement 80% et 77% des sondés. Ce n'est pas un résultat isolé.
Aujourd'hui, l'intermédiation du réel par la
machine poursuit presque invariablement ce processus de différenciation. L'idéologie de la statistique ne vient d'ailleurs pas de nulle part : Eryk Salvaggio, dans le texte The Hypothetical Image, rappelle les liens historiques qui unissent l'analyse prédictive de données et l'économie politique de l'esclavage, tout comme Meredith Whittaker exhumait dans un texte brillant les liens de filiation entre les outils de contrôle des plantations, ceux de la chaîne industrielle, et les bases philosophiques de l'informatique. Dans son enquête Unmasking AI, la chercheuse américano-ghanéenne Joy Buolamwini identifie un "regard codé" (coded gaze), un ensemble de biais discriminatoires implémentés dans les systèmes d'analyse de données, qui produit sans relâche des légions d'"excodés". La déshumanisation numérique, qui transforme les vies humaines en matière première informatique, est la matrice d'une diplomatie à son tour déshumanisée, qui rejette le langage de l'empathie au profit de la dialectique utilitariste.
Simuler la colonisation d'un territoire, c'est risquer de voir par les yeux du colonisateur, de parler par sa bouche, de décrire l'Autre par ses mots. Dans le contexte israélo-palestinien, cela revient à épouser la rhétorique de l'état hébreu, qui s'efforce de faire oublier l'humanité des palestiniens aux observateurs internationaux en les plaçant tour à tour dans différentes catégories – des statistiques, des animaux, des barbares, voire d'ésotériques "enfants des ténèbres".
Israël a d'ailleurs parfaitement compris le double pouvoir déshumanisant et déresponsabilisant de l'automatisation informatique. L'Etat hébreu, qui se vante d'avoir mené la première "guerre à intelligence artificielle" contre Gaza en 2021, ambitionne publiquement de devenir "une superpuissance de l'IA". Des systèmes informatiques autonomes sont en ce moment déployés pour assister dans l'effort de nettoyage ethnique. Le problème, rappelle Brian Merchant dans le LA Times, c'est qu'on ignore précisément lesquels. Tout ce qu'on sait, c'est qu'un système baptisé Fire Factory aide Tsahal à identifier des cibles de bombardements , à calculer la distribution de munitions et à définir ses plans d'attaque. Comme Shults et Lane, Israël simule la région avec ses propres systèmes, en géolocalisant les téléphones de chaque Palestinien.ne et en faisant scanner la bande de Gaza par ses essaims de drones autonomes. Comme chez Culture Pulse, l'IA militaire israélienne construit un archétype de la situation, biaisé contre une population préalablement déshumanisée, à partir de laquelle elle décide où et qui bombarder, avec quelle puissance, à quelle fréquence. Comment ? Avec quels biais ? Mystère. Et tout ça pour quoi ? Des milliers de civils massacrés, un tiers des maisons de Gaza rasées. IA de paix, IA de guerre : même simulacre, même diversion.