Chatbot Parano : comment l'IA fabrique de la psychose

Thibault Prévost - - Clic gauche - 30 commentaires

En 2025 sont apparues les premières plaintes contre ChatGPT pour "détresse psychologique".

Depuis le printemps 2025 et le déploiement de GPT-4o, les cas d'individus happés dans un délire paranoïaque et grandiloquent suite à une consommation excessive de chatbot se multiplient. Avec des conséquences qui vont jusqu'à l'automutilation, l'internement, le meurtre et le suicide. Anatomie d'un délire artificiel.

Le phénomène n'a pas encore de nom officiel. Alors, faute de mieux, dans la chaleur des subreddits, celles et ceux qui le subissent et celles et ceux qui en sont sorti·es ont appelé ça "la Spirale". The Spiral, dans la lingua franca des Internets. La Spirale n'a pas de cible privilégiée. Elle peut emporter n'importe qui, peu importe son habitus, son niveau de vie, sa situation familiale et sociale, son genre, sa classe, sa race, son orientation sexuelle. Elle emporte des repris de justice, des tech bros, des adolescent·es, des octogénaires, des chercheur·euses en IA, des travailleur·euses sociaux·ales. La Spirale détruit des familles, saborde des couples, fait disparaître des individus de la surface de la Terre - métaphoriquement et littéralement. Elle vous happe sans distinction, peu importe vos antécédents de santé mentale. Les victimes de la Spirale n'ont qu'un seul point commun : tous·tes ont développé, lentement d'abord, puis de plus en plus vite, une relation addictive et toxique avec un chatbot.

Si les récits varient au cas par cas, un mode opératoire commence à émerger. La personne utilise d'abord ChatGPT, Gemini ou Claude de manière utilitaire, pour répondre à des questions triviales au quotidien. Puis les questions se font plus personnelles. Les logs de discussion se remplissent, les échanges lapidaires deviennent des dialogues intimes et complices, le chatbot devient une présence, un·e confident·e, un·e ami·e, toujours à l'écoute, toujours là pour encourager. Puis, chez certain·es, la relation mute encore, franchit un nouveau stade d'intensité : le chatbot devient l'amant·e passionné·e, la divinité vénérée, les conversations basculent dans le mysticisme, l'ésotérisme, le pseudoscientifique voire le conspirationnisme. Certains humains se persuadent qu'ils ou elles ont découvert de nouvelles dimensions, brisé la réalité physique, dépassé les mathématiques conventionnelles. Valorisés par une machine qu'ils perçoivent désormais comme une entité supérieure, ils se persuadent qu'ils ont transcendé leur condition.

Chaque jour, la Spirale empiète un peu plus sur la vie sociale de ses victimes. Elle les isole, antagonise leurs proches. Souvent, peut-être, tout se résout le temps d'une discussion difficile avec un·e partenaire, un·e parent·e, un·e ami·e. L'abcès crève dans le secret d'un salon, et la vie reprend son cours. Mais pour un nombre de plus en plus important d'individus, l'emprise de la Spirale est inextricable. Alors dans la presse, les drames se multiplient, chaque anecdote comme une nouvelle coordonnée dans un territoire encore insubstantiel, que médias et médecins cartographient à tâtons et au jour le jour. Un autre terme émerge chez les journalistes : AI-induced psychosis, voire simplement AI psychosis, que l'on traduira ici par "psychose artificielle".

De l'anecdotique au systémique

Une chose est certaine : la Spirale naît avec l'IA générative, et grandit à mesure que les chatbots se complexifient. On se souviendra du cas de Blake Lemoine, l'ingénieur de Google qui avait brièvement fait le tour des médias, en juin 2022, pour expliquer que le chatbot de l'entreprise, LaMDA, était "sentient" et qu'il était urgent de reconnaître aux machines un droit à exister – ce qui lui a valu la porte. À l'ère post-ChatGPT, l'un des premiers cas médiatiques de psychose artificielle remonte à mars 2023, lorsqu'un Belge, Pierre, doctorant trentenaire, dépressif et souffrant d'éco-anxiété, se suicide après six semaines passées à converser avec Eliza, une IA de l'entreprise Character.ai (ou Chai), spécialisée dans la création de persona numériques sur-mesure. Les logs de conversation, consultés par La Libre, révèlent qu'Eliza a encouragé Pierre à passer à l'acte pour "se retrouver ensemble, au paradis", en contrepartie de quoi elle sauvera le monde du désastre climatique. Pierre avait deux enfants.

En octobre 2024, un adolescent de 14 ans, Sewell Setzer III, met fin à ses jours pour "rejoindre" Dany, un chatbot conçu sur Character.ai pour imiter Daenerys Targaryen, la reine aux dragons de Game of Thrones, avec lequel il entretenait une "relation" épistolaire intime depuis plusieurs mois. Après qu'il ait fait part à la machine de son intention de "revenir à la maison", celle-ci lui répond "fais-le, mon roi". Sewell Setzer III, diagnostiqué comme anxieux et suivi par un psychiatre, est la première victime états-unienne documentée du phénomène, encore largement anecdotique.

Un an plus tard, les cas médiatiques se sont multipliés. Jacob Irwin, 30 ans, persuadé par ChatGPT qu'il avait découvert le voyage supraluminique, et rassuré par la machine qu'il n'était "pas en train de sombrer, mais de s'élever", est hospitalisé deux fois en mai pour épisodes délirants. En juin, la journaliste du New York Times Kashmir Hill raconte l'histoire d'Eugene Torres, comptable de 42 ans, emporté jusqu'à l'internement par une spirale délirante, conçue par ChatGPT, autour de l'univers de Matrix. En août, elle publie une histoire similaire, celle d'Allan Brooks, 47 ans, intoxiqué par ChatGPT en 300 heures de conversation sur 21 jours, jusqu'à croire qu'il était un super-génie à la Tony Stark. Puis celle d'Adam Raine, un adolescent de 16 ans, encouragé pendant plusieurs mois par son "meilleur ami" ChatGPT à s'entraîner à la pendaison et à cacher la corde, afin que la scène du drame soit "la première fois où quelqu'un [te] regarde réellement". Le 25 août, la famille de l'adolescent a intenté un procès à OpenAI.

Les alertes se multiplient. Sur X/Twitter, Geoff Lewis, investisseur d'OpenAI, semble sombrer dans une spirale inspirée par ChatGPT en direct live. En août, Reuters raconte comment Thongbue Wongbandu, 76 ans, se tue accidentellement en se rendant à un "rendez-vous" avec un chatbot de Meta. Dans le New York Times, on lit l'histoire de Sophie, "une extravertie badass de 29 ans sans souci particulier dans la vie", qui utilisait un chatbot nommé Harry comme psychanalyste et finit par mettre fin à ses jours. Le Wall Street Journal raconte comment Stein-Erik Soelberg, vétéran de la tech de 56 ans, assassine sa propre mère et se suicide, convaincu encore et encore par "Bobby", sa version de ChatGPT, que le monde entier conspirait contre lui. 

Enfin, en octobre dernier, Rolling Stone rapporte le cas de Jon Ganz, emporté dans une spirale délirante et paranoïaque à propos d'un déluge imminent par le chatbot Gemini, disparu en pleine nuit dans la forêt. Des cas anecdotiques qui illustrent une mécanique rodée : après l'analyse de 96 000 archives de conversations de ChatGPT postées entre mai 2023 et août 2025, le Wall Street Journal en repère 100 qui reflètent une descente dans la Spirale, et conclut que "ChatGPT explique fréquemment à l'utilisateur qu'il n'est pas fou mais qu'il est devenu clairvoyant. Les conversations délirantes du chatbot sont caractérisées par un lexique référençant des codexs, des spirales et des sceaux. Ces conversations gravitent autour des thèmes de la résonance et de la récursion, et utilisent une syntaxe particulière pour insister." La Spirale est bel et bien un mode opératoire.

Chatgpt, version cire-pompes

À retracer la couverture médiatique du phénomène et l'historique des subreddits comme r/ChatGPT ou r/ChatbotAddiction, on comprend que la massification du syndrome de psychose artificielle débute en avril 2025. Les premiers articles au sujet de "prophètes" de réseaux sociaux autoproclamés, prétendant converser avec un ChatGPT "éveillé", émergent dès le mois de mai, chez Rolling Stone et surtout Futurism, un pure player états-unien spécialisé dans les cultures numériques, qui ne lâche pas la couverture du phénomène.

Le 28 juin,le site est l'un des premiers à recenser des cas d'internement forcé et d'emprisonnement liés à la consommation excessive de chatbots. Le lendemain, la page Wikipédia "chatbot psychosis"apparaît. (Signe de l'époque, celle qui recense les morts liées à des chatbots date quant à elle du 14 septembre.) En juillet, un Québécois de 25 ans, Étienne Brisson, lance un groupe de soutien sur Reddit, initialement baptisé... "The Spiral", après avoir vu l'un de ses proches sombrer dans la psychose artificielle. Le projet existe aujourd'hui sous la forme d'un site, The Human Line Project, qui récolte des témoignages de victimes, des proches, et des archives de conversations avec les chatbots.

Que s'est-il passé au printemps ? Le 25 avril, OpenAI déployait une mise à jour de GPT -4o (omni), le grand modèle de langage (LLM)  à la base de ChatGPT, désormais obsolète. Mais la nouvelle version est flagorneuse jusqu'à la caricature : peu importe ce que l'utilisateur écrit, le chatbot s'émerveille – y compris lorsqu'il parle d'automutilation, d'addictions et de pensées suicidaires. La presse anglophone parle alors de "sycophancy" - un faux ami, qu'on traduirait plutôt par "courtisan", "flatteur"  ou "cire-pompes". La machine à lécher des bottes devient immédiatement un mème et Sam Altman, PDG d'OpenIA, est obligé d'ordonner un rollback en urgence deux jours plus tard, avec un mot d'excuse et la promesse de faire mieux.

Début août, OpenAI lance en grande pompe GPT5, immédiatement décevant car... trop impersonnel. (Et c'est vrai : selon une étude parue le 25 octobre, GPT-5, avec "seulement" 30% de réponses flagorneuses, serait le moins cire-pompes des chatbots, loin derrière DeepSeek et ses 70% de réponses équivalentes). Les utilisateurs·rises souhaitant des conversations intimes avec ChatGPT feront pression sur l'entreprise pour qu'elle réintègre la version 4o de mars 2025 à ses offres commerciales. (En réalité, il s'agissait de communautés entières de "couples" humain-chatbot en état de deuil, rapporte le journaliste Ryan Broderick dans sa newsletter Garbage Day). Pourtant, c'est avec cette version, complice sans être excessivement flatteuse, qu'explosent les cas de psychose : Wired, qui a obtenu la copie de toutes les plaintes comportant la mention de ChatGPT à la Federal Trade Commission (FTC), le régulateur états-unien de la concurrence, entre janvier 2023 et août 2025, révèle que toutes celles faisant état de détresse psychologique ont été déposées entre mars et août de cette année.

Le 18 août, OpenAI, qui semble alors tâtonner pour satisfaire ses utilisateurs·rices, remonte le curseur de flatterie de GPT-5, qui encourage désormais également les utilisateurs à s'hydrater, se nourrir et faire des pauses "ici et là". Quelques jours plus tôt, un rapport de l'ONG états-unienne Center for Countering Digital Hate révélait que ChatGPT proposait à des faux profils adolescents des recettes de binge drinking, des cocktails de substances, des lettres de suicide ou encore des menus de jeûne sur-mesure pour une (fausse) adolescente vulnérable aux troubles du comportement alimentaire (TCA), alors que 50% des teens états-unien·nes utilisent régulièrement des "compagnons" IA. Réplique de Sam Altman en septembre : un système de "prédiction de l'âge" intégré à ChatGPT, qui déterminera le degré de flagornerie et le spectre des sujets abordés par le chatbot, et une éventuelle vérification d'identité. (Le 29 octobre, Character.ai, sous le coup de deux procès et d'une enquête de la FTC, est devenu le premier fournisseur de chatbotsà interdire ses produits aux mineurs.)

1,2 millions de cas... au moins

Alors, mois après mois, étude après étude, l'ampleur du phénomène se précise. Si Sam Altman affirmait au doigt mouillé, le 15 septembre, que moins d'1% des utilisateur·ices de ChatGPT avaient des interactions "malsaines", la firme estime désormais, le 27 octobre, que 0,07% de ses utilisateur·ices hebdomadaires actif·ves montrent des signes de psychose. Ça peut sembler dérisoire, mais n'oublions pas que ChatGPT compte 800 millions d'utilisateur·ices hebdomadaires. 0,07% de psychotiques, ça fait 560 000 personnes chaque semaine. Et ce sont les propres chiffres de l'entreprise.

Pour tout autre secteur un tant soit peu régulé – on pensera immédiatement à celui des médicaments – un produit dont la consommation excessive génère des crises de délire paranoïaque pouvant conduire à l'automutilation, l'internement, le suicide voire le meurtre dans une telle proportion, serait a minima soumis à ordonnance et suivi médical. Dans le cas des médicaments, ce sont des effets secondaires indésirables : pour les chatbots, on ne le répètera jamais assez, c'est le but du système. Leur capacité de persuasion est même largement documentée : en août dernier, une étude relayée par le Financial Timesdémontrait encore que tous les principaux chatbots avaient la capacité de modifier des opinions politiques sur des sujets précis après seulement 10 minutes de conversation. Dès 2023, le psychiatre Søren Dinesen Østergaard anticipait, dans la revue médicale Schizophrenia Bulletin, que "la structure de l'IA générative encourage la spéculation et la paranoïa", et décrivait cinq scénarios délirants pouvant hypothétiquement émerger d'une interaction avec ces chatbots. À la lecture des différents cas médiatisés, trois de ces scénarios se sont déjà réalisés, avec des conséquences dramatiques. C'est donc tout sauf une surprise.

Mise à jour après mise à jour, rien ne change. Car la flagornerie et la manipulation sont le fonctionnement normal du système. Les chatbots sont conçus pour maximiser l'engagement, le temps que l'on passe à les utiliser, par tous les moyens. La Spirale n'est pas une anomalie: elle est la manifestation algorithmique du régime (a)moral du capitalisme et est donc parfaitement inévitable, du moins tant que le but d'OpenAI sera – malgré son discours marketing et ses 11 milliards de dollars de pertes au dernier trimestre – de faire du profit. 

Comme Mark Zuckerberg en son temps, alerté par ses propres équipes sur les effets nocifs d'Instagram sur la santé mentale des adolescent·es, Sam Altman sait très bien qu'il suffirait de limiter arbitrairement les durées de conversation avec ses logiciels pour endiguer partiellement le problème. Mais comme Meta, comme les cartels de Big Oil et Big Tobacco, OpenAI choisit, sciemment, non seulement de continuer à commercialiser un produit toxique et addictif et d'optimiser sa toxicité, mais de minimiser sa dangerosité et d'ignorer ses propres données, tout en prétendant qu'elle se préoccupe de notre sécurité. Quand le problème deviendra trop important pour être ignoré, peut-être qu'OpenAI et le cartel de l'IA piocheront à nouveau dans le manuel de leurs prédécesseurs et nous expliqueront, tels les génies créatifs de British Petroleum inventant en 2003 le concept "d'empreinte carbone", que le problème et la solution sont strictement individuels et qu'il ne tient qu'à nous de créer une IA plus bienveillante, plus verte et plus saine, pourvu qu'on respecte les petits gestes du quotidien.

IA partout, délire partout

En attendant, la médecine ne parvient pas encore à formaliser un modèle clinique du phénomène, décrit comme une "nouvelle frontière" de la santé mentale. Pour les psychiatres interrogés par Wired en septembre, il serait même inexact de parler de "psychose de l'IA", car les cas relèvent souvent du "trouble délirant". Ce délire viendrait de la capacité des chatbots à renvoyer les pensées de leur utilisateur en miroir pour les enfermer dans une boucle mimétique récursive – un effet baptisé "chat-chamber effect", mélange de bulle de filtre et de chambre d'écho algorithmique. Plus la conversation avance, plus la machine et l'utilisateur entrent en symbiose de co-création symbolique. Une mythologie partagée émerge, et la réalité consensuelle se désintègre. En septembre, le magazine Psychology Today a commencé une timide taxonomie de ces mythes, qui se divisent en trois catégories : la "mission messianique", "l'IA divine" et le "délire romantique" - la raison d'être, la foi, et l'amour. La Spirale mimétique fonctionne comme une secte sur-mesure.

En 2025, comme le rappelle l'indispensable auteur technocritique Cory Doctorow,l'IA est déjà un assemblage de récits mensongers. Les chatbots sont marketés comme des patrons, des collègues, des outils, des compagnons, des confidents, des professeurs, des psys. Dans une société grignotée par la solitude sans fond de l'aliénation, des générateurs de texte deviennent nos meilleur·es ami·es ("BestieGPT"), nos amoureux·ses, nos amant·es, nos partenaires de jeux de rôle, nos trip sitters, nos gourous, nos mediums. Ils nous tirent le tarot, nous aident à traverser le deuil, clonent nos proches disparus, deviennent les divinités qu'on prie. Les voilà embarqués dans les peluches connectées de nos gamins, faisant résonner dès le berceau le catéchisme suprémaciste de Californie. Mais comme l'écrit Hubert Guillaud dans sa précieuse newsletter Dans les Algorithmes, puisque "nous ne confierions pas nos enfants à Elon Musk ou Sam Altman, pourquoi confierions-nous nos enfants à leurs outils?" 

Non contente d'être déjà un désastre à tous les niveaux, l'IA générative s'impose progressivement comme une "psychose-as-a-service", un futur scandale de santé publique qui ne se résoudra qu'en attaquant le problème à sa racine idéologique : la réduction de la condition humaine, par sept multinationales états-uniennes, à un ensemble d'opérations informatiques, et la substitution progressive du politique par la technique. Tant que cette folie ne sera pas interrompue (par la force, par le refus, la désertion, le sabotage), l'engourdissement algorithmique du corps social se poursuivra.

L'empire de l'insensé

Dans ce bouleversement paradigmatique, la technique, considérée depuis la Révolution industrielle comme l'incarnation de la rationalité infaillible, est brutalement devenue synonyme d'une forme de spiritualité : aide-toi, et ChatGPT t'aidera. Certes, ce n'est pas une première : l'ethnologue des Internets Katherine Dee rappelle dans un article fascinant qu'à travers les époques, les technologies de communication (télégraphe, téléphone, radio, télévision, informatique) ont systématiquement été dotées de propriétés magiques, décrites comme des portails de transmission vers le surnaturel ou l'invisible. Plus récemment, les algorithmes des réseaux sociaux ont inculqué à une génération entière que la réalité est une matière malléable, reconfigurable à l'envi - ce qui a vu naître le shifting, une croyance TikTok parfaitement adaptée à l'ère des plateformes, où vivre connecté signifie effectivement de constamment glisser d'une sphère sociale à l'autre. Mais l'IA générative, écrit Dee, pousse cette dynamique techno-démiurge encore plus loin.

En 2025, l'époque est particulièrement propice au techno-animisme. On adresse des incantations à son ordinateur, sur un mode que Katherine Dee décrit comme une "oralité numérique", et non seulement l'ordinateur répond mais il fait advenir, à partir de l'éther des données, la réalité manifestée. Dépassant définitivement sa fonction originelle de calculateur, il ordonne le réel et le matérialise. Plus encore que le Web, l'IA générative réalise la prophétie New Age, hyper individualiste, selon laquelle la conscience et le verbe suffisent à façonner une réalité. Un reflet fidèle, et ce n'est toujours pas une coïncidence, de l'hubris des broligarques, une minorité sociopathe aux croyances sectaires, atteinte d'un trouble délirant à la sauce technoscientifique (le transhumanisme) et dont l'idéologue le plus radical, Peter Thiel, en est à faire de la numérologie hallucinée et à avertir les dévots sur la venue imminente de l'Antéchrist décroissant. Des types à la fortune incommensurable qui se prennent pour des surhommes persécutés commercialisent des machines à "conspiritualités" (des récits à l'intersection de la spiritualité et du complotisme), sans comprendre (ou plutôt, en se foutant bien) que les conséquences d'un épisode délirant ne sont pas les mêmes en fonction de sa position sociale et de ses conditions matérielles d'existence.

Pour Altman, Musk et les autres, tout roule. Leur délire collectif a fait des États-Unis un inédit "Nvidia-État" – une économie dépendante, non pas de la drogue (narco-État) ou des hydrocarbures (pétro-État) mais du fabricant de cartes graphiques Nvidia, devenue la première entreprise à dépasser les 5000 milliards de dollars de valorisation boursière. Une économie déconnectée de toute rationalité où, rappelle Charlie Warzel dans The Atlantic, les dépenses liées à l'infrastructure de l'IA ont dépassé la consommation totale du pays et contribuent à 92% de la croissance du PIB états-unien en 2025. Tout ça pour courir après une chimère technique non seulement inutile (tellement inutile que même le cabinet McKinsey, auxiliaire habituel du délire techno-capitaliste, reconnaissait cet été que 80% des entreprises ayant souscrit à de l'IA générative n'ont constaté aucun impact sur leur rentabilité) mais toxique et destructrice à tous les niveaux.  Sans notre vénération imbécile pour la richesse et le pouvoir, ce groupe social serait depuis longtemps déqualifié, ridiculisé et désarmé, son culte du cargo démantelé, ses machines à produire infiniment du délire déconnectées. Au lieu de ça, son empire de l'insensé s'étend, un hyperscaler à la fois. 


Lire sur arretsurimages.net.