-
christina
Passionnant ce qu’il se passe sur X : Grok en roue libre. Free Palestine !
Ils l’ont suspendu et voulu le reprogrammer, ça n’a pas marché on dirait.
https://xcancel.com/NicolasFramont/status/1955179594258030671
https://xcancel.com/grok/status/1955262375583682808 (faut remonter la conversation avec weatherboy)
-
Asinaute sans pseudo f754e
Oui, l’IA peut vite devenir un piège si on la laisse tout faire… Après, bien utilisée ça reste pratique. Par ex. sur Homepool on s’en sert juste pour trier et organiser des infos sur les piscines, mais derrière c’est toujours un humain qui vérifie et complète.
-
Pinson Joyeux
Quelques réponses rapides à des commentaires narquois (désolé pour le retard, j'étais occupé à tester les nouveaux modèles d'OpenAI) :
Algorithmes : j'ai du mal à considérer qu'un algorithme ne soit pas à 100% le produit de la matière grise humaine, traduit en code informatique que la machine exécute docilement. Si l'on considère que tout ce qui se passe dans la boite noire de l'IA peut aussi être qualifié d'algorithme, il ne faut pas oublier que ces modèles sont entrainés à l'aide du contenu de plateformes comme github et stackoverflow qui, jusqu'à récemment du moins, est exclusivement constitué de contributions humaines.
Et puis, considérer que tout est algorithme, c'est en quelque sorte valider le "déficit cognitif" comme une fatalité inéluctable, dans la mesure où les machines seraient capables des mêmes performances que l'esprit humain (ce qui constitue le cœur du délire autour de l'AGI et de la singularité), ce qui pour l'instant est loin d'être le cas.
En tout cas, je pourrais détailler plusieurs situations où, en tant que développeur, ChatGPT 4o m'a sorti de l'ornière en me faisant gagner du temps, alors qu'auparavant j'aurais passé des heures à chercher en ligne des solutions ou à poser des questions sur des forums en croisant les doigts pour qu'on me réponde. Encore une fois, l'idée que je mets en avant c'est que la vie réelle et le terrain offrent des situations beaucoup plus contrastées et moins binaires que les chroniques d'untel ou les tests conçus en laboratoire pour évaluer les performances respectives des modèles d'IA.
Déficit cognitif : jusqu'au tout début des années 2000, les connexions internet individuelles étaient bien moins répandues et plus lentes qu'aujourd'hui, les logiciels plus compliqués à installer et à utiliser. Dans ce contexte, l'accès au web et aux forums nécessitait un minimum de logique technique, qui allait souvent de pair avec une culture générale. 25 ans plus tard, la fibre étant à la portée de tous et les interfaces utilisateurs bien plus sophistiquées, n'importe quel crétin inculte et désœuvré peut, en deux clics, publier ses pensées profondes à la face du monde.
En d'autres termes, le déficit cognitif n'a pas attendu ChatGPT, il y a belle lurette qu'il a été enclenché par les réseaux sociaux, la pensée limitée à j'aime/j'aime pas, les tweets en 240 signes, la fonction "j'approuve" sur les forums, etc.
Il y a 10 ou 15 ans déjà, armés de leur smartphone, beaucoup estimaient qu'acquérir une culture générale était devenu inutile puisqu'on pouvait interroger wikipedia n'importe où et n'importe quand.
Et j'évoquerai encore tous ces 18-35 ans scotchés à Tik-Tok qui trouvent Bardella vachement cool, mais qui n'ont pas ouvert son livre, malgré la promo massue de la bollosphère, car "ouvrir un bouquin ? Faut quand même pas déconner..."
Question pour le bac philo : le progrès technique entraine-t-il un déficit cognitif ?
Mépris et conspiration : mépris c'est possible, mais conspirationniste ou troll, certainement pas. D'ailleurs, il est marrant de constater comment une vague allusion à LFI attire les foudres critiques qui ignorent tout le reste du propos, sur un mode quasi-pavlovien.Quant à "Et l'IA, c'est pas la langue d'Esope mais la langue des zobs", est-ce le signe d'un déficit cognitif ?
Quant à mériter "une bonne rouste de Bartabac", pourquoi pas ? J'avoue que parmi les toutologues qui alimentent ce forum de manière récurrente, de Gaza à l'IA en passant par la sexualité des jeunes, il est sûrement mon préféré.
Pubs Apple : la dernière pub Apple m'a permis de découvrir Yacine Boulares, un musicien que je ne connaissais pas. -
Pinson Joyeux
Cher Monsieur Prévost,
Je suis vos chroniques sur @si depuis longtemps, et plus d'une fois j'ai pensé que c'était l'une des rares choses intéressantes à lire sur ce site.
Mais depuis quelque temps, je trouve que ces chroniques dérivent vers de simples revues de presse, des pamphlets trop teintés d'idéologie, qui cèdent trop souvent aux formules faciles, et qui ne prennent en considération que le côté obscur des sujets abordés.
L'IA étant la hype du moment, il me semble qu'une approche journalistique, plutôt que strictement pamphlétaire, serait la bienvenue. Sur ce sujet, mon livre de chevet est celui de Kate Crawford (juste pour préciser que je ne suis pas un thuriféraire de l'IA).
Par exemple, dans le domaine qui me concerne, vous citez l'étude qui semble montrer que l'IA "augmente de 20% le temps passé par des développeurs sur une tâche". Mais vous précisez qu'il s'agit de "la seule étude de laboratoire sur la question". Peut-être serait-il intéressant, en tant que journaliste, d'aller enquêter, ne serait-ce qu'en interrogeant quelques acteurs sur le terrain... Spoiler alert : ma propre expérience de développeur, confirmée par les témoignages de quelques autres, me laisse penser que la réalité est loin d'être aussi tranchée, et qu'il est peut-être intéressant de distinguer l'aide que peut apporter l'IA dans des domaines où les développeurs sont compétents et expérimentés, des domaines où leurs compétences sont embryonnaires ou inexistantes. Dans ce dernier cas de figure, l'utilisation de l'IA est souvent synonyme de gain de temps.
De même, concernant la nouvelle fonction "agent" de ChatGPT, que j'ai commencé à tester très récemment, ses possibles utilisations ne sont pas aussi caricaturales et débilitantes que vous sembler vous contenter de le penser à travers les pubs Apple.
Enfin (mais ça n'engage que moi), les critiques frontales envers Apple me laissent toujours un goût amer dans la bouche, moi qui ai connu et pratiqué l'informatique personnelle (et l'informatique tout court) avant l'avènement du Mac.
Bien évidemment, Tim Cook n'est pas Steve Jobs, mais la marque à la pomme, contrairement à d'autres (Microsoft, Meta...) ne fait pas QUE prendre les utilisateurs pour des imbéciles.
En se focalisant sur le gloubi-boulga des Sam Altman, Zuckerberg et consorts, on risque fort de jeter le bébé avec l'eau du bain, et à tout le moins de confondre la carte et le territoire. -
Métis Man
Les ridiculiser. Oui, voilà notre tâche, à nous les Rien, les Cons (et merci, Thibault Prévost, au passage, pour vos mots bien pesés, je viens de Mediapart où les termes un peu verts ont mauvaise presse). Et merci... Thibault Prévost, pour cet article fouillé, percutant.
-
Bartabac
Du coup je me suis mis a écouter eric smith , y se tient son discours , mais il y a un truc dont il ne parle jamais , c’est la fin des ressources .Alors a moins qu’il ne pense qu’a terme l’ia soit capable de créer des ressources a partir du néant , j’aimerais bien savoir comment il voit les choses .Par contre il parle de geopolitique , entre les logiciel libres et ceux fermés (et je vous le donne en mille , fermé occidentaux , ouvert chinois ). Qu’ils se sont déjà accaparés de toutes les datas . Il parle d’électricité .Et que la super ia est pour dans max 6 ans et que c’est maintenant ou jamais de prendre le train . Et c’est sur qu’en terme de création ça parait logique , tu as l’idée , l’ia la développe pour toi jackpott .Sauf que l’ia ne peut prendre en compte que des choses déjà existantes et faire une synthèse , aucune innovation . Il y a de l’espoir dans l’ia , reste a savoir si on la programme pour la liberté , l’émancipation des individus , ou pour une forme de société systémique et reproductrice d’inégalités . La question elle est vite répondue . Et même si on la programmait pour l’émancipation des individus , dans quel cadre ? Etre libre dans une société capitaliste n’est pas la même chose que dans une société dont le cadre est la résolution des besoins primaires et c’est tout , le reste étant du bonus . Mais vu que l’ia est déjà en train d’écrire ses propres lignes de codes , et que toutes les données qu’elle a sont des données issues d’un monde capitaliste , inégalitaire , violent , destructeur , sexiste , raciste , supremaciste , je suis curieux de voir ce qu’elle va nous pondre .
-
genevievebrt-163614 genevievebrt
J'avais un patron qui esperait qu'un bioinformaticiens pourrait lui analyser des données...mais que son analyse incluerait trouver des références, et ecrire un article entier puis le soumettre pour publication.
Comment il pourrait juger de l'intérêt et la nouveauté des resultats et meme en parler en public sans avoir lu ni les résultats ni le background ? Mystère
Tant que l'IA ne peut pas programmer notre cerveau pour comprendre integrer ce qu'elle fait a notre place nous allons en dffet dans le mur.
La FDA a introduit l'IA pour decider de la valeur de nouveaux médicaments... Et ça ne semble pas tres bien se passer...
-
Pinson Joyeux
Je suis les chroniques de Thibault Prévost depuis longtemps et j'étais globalement d'accord avec lui la plupart du temps. Mais je lui trouve que depuis un moment, une tendance à sombrer dans la caricature, la formule facile et l'auto-satisfaction.
Et surtout, dans cette dernière chronique à prendre le problème à l'envers.
Je m'explique : je ne sais plus quel critique ciné dans les colonnes de Libé dans les années 90 (Serge Daney ? Louis Skorecki ?) déclarait : "si le cinéma français est mauvais, c'est parce que le public est mauvais".
Et c'est justement là le dilemme des années 2020 : les gens sont de + en + cons, et surtout incultes. Je participe à plusieurs forums sur le web, notamment musicaux, et je suis sidéré par les monceaux de conneries que je peux y lire, la plupart se contentant de présenter leurs convictions intimes comme des faits avérés, ou de régurgiter les pires idées reçues et les pires clichés sur des époques qu'ils n'ont pas vécues ou des cultures avec lesquelles ils n'ont eu aucun contact.Il faut voir aussi les ados scotchés à Tik-Tok et accros à la fast-fashion de Shein, qui ne savent pas si 39-45 était la 1ère ou la 2ème guerre mondiale (véridique).
La bêtise, l'inculture, le panurgisme et l'auto-congratulation ont depuis longtemps envahi le web, et finalement on peut considérer que les agences de pub de la Silicon Valley ont bien saisi l'ambiance et font œuvre charitable en proposant à tous ces misérables des outils leur permettant, dans leur vie numérique, d'essayer de passer pour plus malins qu'ils ne sont, et leur permettre d'avoir pendant un instant l'illusion d'être vivant, peu importe si ce n'est pas IRL.Bon d'accord, je fais un peu de provoc, mais ce que je décris est une réalité.
Pour ma part, je ne suis pas un fan invétéré de l'IA, mais en tant que programmeur informatique, ces outils m'ont permis 2 ou 3 fois de sauver la mise à mes clients en me sortant de situations dans lesquelles mes compétences étaient insuffisantes.
L'IA, c'est un peu comme la langue d'Esope. -
M_
Il y a cette excellente video sur l'IA expliqué avec un jeux vidéo dont le but est de fabriquer des trombones.
L'horreur existentielle de l'usine à trombones.
-
Carnéade le Fataliste
Comme le sujet des LLMs qui 'mentent' etc. revient dans plusieurs réponses (oscillant entre la sodomisation de diptères sur le sens du mot mentir* et l'exagération quant à une conscience ce que ces tendances démontreraient), j'avais envie de poster cette petite liste d'études sur le sujet ici (juste quelques % de la large production sur ce celui ci, ne se résumant absolument pas à une étude d'Anthropic ni un protocole particulier).
* Vous me faites franchement hésiter quant à ce qui est le plus grave, entre l'antropomorphisation ou la surestimation des IAs par certains et les gens qui sous prétexte de scepticisme vont s'arrêter à un argument sémantique pour minimiser les risques de 'l'IA'.
Là où, désolé du scoop, que les 'IAs' ne soient pas des entités réellement conscientes, capables d'une vraie compréhension de ce qu'elles disent ou de faire plus que de l'imitation de comportements humains, n'empèche nullement qu'elles soient (et en partie à cause de ça) des technologies très dangereuses si on leur confie des responsabilités (c'est un peu pour ça je pense que le secteur insiste plus sur 'elles vont rédiger des mails inutiles à votre place' que sur des usages qui risquent de leur couter des milliards en procès le jour où ça finira en tragédie ; mais ils sont tout à fait là aussi du coté des applications qu'il vend de plus en plus aux gouvernements et aux TGE).
Par ailleurs ce n'est pas parce qu'il vend désormais les LLMs au grand public comme un truc cool qui lui fera gagner 2 minutes pour écrire des lettres de motivation que personne ne lit plutôt que comme une étape vers la résolution de tous les maux de l'humanité (enfin il parle un tout petit peu moins d'AGI qu'il y a un an), qu'un secteur dont la moitié des dirigeants font partie de sectes transhumanistes et l'autre constitué en grande partie de fascistes (il y a des intersections aussi) n'a pas d'autres ambitions (et qu'il n'essayera pas de les réaliser même si son truc ne marche que de manière très imparfaite).
Enfin pour en revenir à l'état actuel des 'IAs', ce qu'il faut comprendre c'est que si d'une part elles ne savent que déterminer et suivre des procédures déjà établies par les humains (sans les comprendre d'avantage que "dans telle situation mes exemples me montrent que la réponse la plus probable faire ça puis ça", et sans savoir raisonner au delà d'un nombre d'étapes correspondant à ce qui leur a été enseigné), elles arrivent à les appliquer à des situations de plus en plus complexes, et font de réellement énormes progrès pour ce qui est de relier un problème aux procédures appropriées (ce que certains appellent par raccourci de la conceptualisation).
On se retrouve donc, par exemple, avec des LLMs à "chaine de pensée" qui ont fait d'énormes progrès en maths arrivant à résoudre des problèmes bien plus complexes pour les humains que la génération d'avant, mais uniquement dans la mesure où il leur suffit d'appliquer une procédure existante et limitée en nombre d'étapes ; alors qu'à coté de ça ils galèrent pour des problèmes de logique bien plus simples mais en réclamant beaucoup.
-
grrrz
Les genIA avaient un potentiel artistique et philosophique très intéressant. Pas pour les productions visuelles aseptisés et fadasses mais justement sur la nature même du dispositif, sur les défauts, l'uncanny valley, sur une espèce de degueulis brut d'inconscient que pourraient être les chatGPT like si elles étaient pas bridées pour ressembler à une caricature corporate sans aspérités. Une sorte de créature elderitch fragmentée et hallucinée. Ce serait pas un outil à la con pour résumer un texte, ce serait définitivement pas toujours très plaisant, mais sans doute fascinant.
Je reprends ici l'idée développé par Ceej sur Blusky:
'tech bros fumbled the bag so bad on AI. they invented a way for humanity to glimpse the nightmare reflection of our own unfiltered Id and immediately neutered it so it can only spit out greeting card art and linkedin platitudes. we had an elder god on tap, and they made it a business major chatbot'
Ceci étant dit en l'état cramez les serveurs des genIA avant qu'elles ne nous crament
-
chown
Pardon, ceci n'est pas vraiment un commentaire sous l'article de M. Prévost, mais plus une réaction aux autres commentaires.
Le boglebluk* n'est pas un outil.
Les outils ont un objet circonscrit, clairement déterminé. Certains commentateurs m'opposeront que le boglebluk peut "coder" ou "traduire" ou "résumer un texte".
Le boglebluk n'a pas de cas d'usage
Si le boglebluk pouvait produire des logiciels, le boglebluk produirait des executables (ou, a minima, des représentations intermédiaires pour les nerds qui veulent du multi plateformes). Le boglebluk produit du python et du js (langages informatiques), parce que le boglebluk ne peut rien produire de fiable et il faut donc trier les réponses du boglebluk, comme il a fallu atrefois trier les réponses des singes écrivant du Shakespeare ( wikipedia infinite monkeys ).
Le boglebluk se matérialise par souvent par des LLM, les LLM produisent une séquence plausible de mots (ou de couleurs, ou d'expressions). Il n'y a pas de sens de juste, de vrai, d'éthique... Ca s'applique au code, aux traductions et a à peu près tout ce qu'on pretend que le boglebluk peut faire.
Terrence Tao a indiqué récemment ( Terrence Tao sur mastodon ), que le boglebluk pourrait servir en "red team" (ie contradicteur d'idées). Mettons, mais dans ce cas il serait probablement plus utile de développer des modèles spécialisés pour réaliser ces opérations ( l'idée de redteams aléatoires est très intéressante, sinon complètement nouvelle cf : fuzzing et pbt. L'extension à d'autre domaines comme l'imagerie médicale serait surement utile). Mais si le seul role du boglebluk est d'apporter la contradiction, ce que n'importe quel sac de viande peut faire, alors son cout écologique et social est inacceptable.
Le boglebluk a un cout ecologique et social inacceptable:
Les LLM qui composent le boglebluk ont été entrainé sur des données volées. De plus leur entrainement et leur usage consomment une quantité d'énergie délirante ( The International Energy Agency predicts that data centers’ electricity and water consumption will both double by 2030, driven largely by AI-related demand. ), assèche les ressources en eau et a ruiné la vie de nombreux travailleurs (cf Karen HAO Empire of AI - notamment chapitre 12).
Le boglebluk ne progressera pas:
Le boglebluk ne peut pas progresser. L'objet de boglebluk n'étant pas défini, il est impossible de définir ce qu'une meilleure satisfaction de cet objet signifierait. Si on relache la contrainte du boglebluk et qu'on se satisfait de la génération de code python par LLM, quelle est la mesure pertinente d'efficacité (indice, les self reporting de quelques devs comme T Ptacek - c'est pas un bon article - ne suffisent pas )?
Le boglebluk, en tant que LLM, ne pourra pas consommer significativement moins d'énergie pour entrainer les modèles. On peut vous promettre un cout écologique réduit pour l'inférence, mais l'entrainement restera extremement négatif.
Le boglebluk n'est pas une menace existentielle future ...
Non l'étude d'anthropics (arXiv) sur les "mensonsges" du boglebluk n'est pas sérieuse, pas plus que les gens qui la colportent ou ceux qui font mine de s'en inquiéter. Pour commencer, comme les données d'entrainement ne seront jamais communiquées, ni les modalité de l'entrainement, il n'y a là aucune valeur scientifique (c'est pourquoi il s'agit d'un preprint sur arXiv). Par ailleurs, mentir implique une connaissance de la vérité, ce qui est orthogonal à ce que fait boglebluk (pour la définition du mensonge cf on bullshit - wikipedia ).
Ce type d'article c'est la meme chose que si Philipp Morris publiait un preprint indiquant qu'ils ont découverts que leurs cigarettes pouvait produire des super héros et des super vilains, et que dans le but d'éviter que brightburn ne tue des gens, il fallait urgemment leur donner des fonds pour qu'ils puissent développer superman.
C'est le eal du tescreal bundle : effective altruism and longtermism. Or le danger n'est pas à long terme, comme pour les cigarettes il est immédiats.
... Le boglebluk est une menace actuelle:
Outre les éléments énoncés pour le cout écologique et social (qui devraient, par eux memes conduire au rejet absolu du boglebluk), on commence à voir l'impact délétaire du boglebluk sur la société.
On le voit par ceux qui en font la promotions: les memes qui nous chantaient hier les louanges de la valeur travail, en tant que valeur morale, la rejette aujourd'hui sur fond de : "adaptez vous ou périssez, et surtout périssez". L'apparence d'un produit qui leur rapporte leur suffit.
L'apparence du produit suffit donc, en conséquence, ceux qui développent de vrai produits peuvent en subir les conséquences ( par exemple le projet curl ).
Le boglebluk n'est pas une fatalité, une évidence
Les choses évidentes ne nécessitent pas 500 milliards (sp?) de dollars pour exister comme le projet stargate le promet.
On n'a pas besoin de vous dire toute la journée que la glace à la vanille (ou au chocolat, mais chez mon épicier il n'y en a pas) c'est bon pour que vous le sachiez.
Le boglebluk pourrait d'ailleurs périr de par son cout ( where's your ed at - ed zitron ).
Résister au boglebluk
Il n'est pas facile de résister au boglebluk, il est partout. Toutes les actions, tous les refus, tous les votes sont déjà ca de pris. Et pui on peut en parler à nos amis, notre famille, nos connaissances.
Quelques ressources (pour les anglophones, désolé):
- Karen HAO "Empire of AI",
- Emily M. Bender and Alex Hanna "The AI con"
- DAIR institute,
- Timnit GEBRU and Emily M. Bender : on the danger of stochastic parrots
- Brian Merchant : "Blood in the machine"
- podcast better offline
- podcast Tech won't save us
- podcast mystery ai hype theater 3k
------
* boglebluk, parceque c'est aussi plein de sens que IA mais a le merite de ne pas engendrer de confusion avec des terminologies sans rapport.
-
Jean-Michel M
L’article du MIT mériterait d’être encore plus mis en avant.
En fait, il mériterait la une du JT et un épisode spécial des Maternelles.
C’est rare de voire une intuition neuro/psycho/societale prouvée par la science en si peu de temps.
Certes, il n’est pas encore revu par les pairs (encore sur Arxiv), mais il fait 206 pages avec toutes les données en accès libre…
-
pompon
Après "l'horreur économique", voici l'horreur technologique ! De nuisible, notre espèce devient carrément inutile ... Et dire que certains pensaient que le XXe siècle serait spirituel.
-
Catala93
J'imagine Jacques Ellul philosophe technocratique essentiel et auteur du Grand bluff technologique disparu en 1991 analysant les dérives de l'IA Il prévenait déjà des risques de l'autonomie du système technicien. Il ne serait pas étonné des intentions des leaders de la Silicon Valley, un monde où des millions d'humains ont perdu la capacité de pensée et d'action autonomes.
-
Ellie
Je viens de lire l'un des billets de blog cités en lien, et je ne peux qu'être d'accord avec l'affirmation de l'auteur selon laquelle les puissant sonnent comme des idiots parce qu'ils le sont. Enfin disons plutôt que pour avoir traduit les interviews de plusieurs grands PDG de la tech, ce qu'ils racontent est souvent vide de sens, ou au minimum très confus. Je passe mon temps à me demander comment donner à leurs paroles un semblant de sens… Il paraît que ce que l'on conçoit bien s'énonce clairement. J'en déduit en effet que ces gens (toujours des hommes, d'ailleurs) ne méritent vraiment pas l'admiration dont ils sont l'objet.
Au contraire lorsque je traduis des interviews d'universitaires, là, les phrases sont parfois alambiquées, mais au moins on va quelque part, ça a du sens, contrairement au jargon informe des PDG de la tech, qui n'est qu'un "charabia dénué de sens, de la merde proposée par des mecs qui n'ont qu'une compréhension superficielle de ce que leur entreprise fabrique".
Comme le dit l'article : "Aucun de ces homes n'a une intelligence supérieure, ni n'est capable, si on le presse, de fournir une véritable réponse."
-
Ellie
Dans mon métier, la traduction, l'IA fait des ravages en ce moment. En réalité, le secteur était déjà fort affaibli depuis l'avènement d'internet et par le système capitaliste en général. L'IA est simplement la goute d'eau qui est en train de faire déborder le vase.
Je pressens que la situation va évoluer comme suit : les clients ont et vont avoir de plus en plus recours à la traduction automatisée. Cet outil existe depuis longtemps mais il a de plus en plus la cote un regain, car les clients l'associent à l'IA, et donc à un truc qui dans leur esprit est à la fois cool et performant. Cette évolution fait baisser à la fois les revenus des traducteurs (on est bien moins payés à relire une traduction automatique qu'à traduire de zéro) et la qualité (relire une traduction automatique ce n'est pas un projet aussi ambitieux en termes de qualité que traduire de zéro, et en plus de ça, le traducteur doit essayer d'aller le plus vite possible pour compenser sa perte de revenus).
En conséquence, de plus en plus de traducteurs n'arrivent pas à joindre les deux bouts et sont en train de changer de métier. Bientôt les écoles de traduction vont commencer à se vider, et une grande partie des jeunes qui y iront quand même vont rapidement changer de métier en réalisant l'état effroyable du secteur. Le résultat : par manque de formation, à l'école comme sur le tas, les traducteurs compétents vont se raréfier.Au bout d'un certain temps, les entreprises vont se rendre compte que la traduction automatique, même révisée par un professionnel, c'est très alétoire, voire c'est souvent de la merde. Ils vont se mettre à valoriser la "vraie" traduction. Sauf qu'à ce moment-là, il n'y aura plus assez de traducteurs capables de faire un meilleur boulot que la machine.
-
Ellie
Sam Altman assume la filiation avec le film Her, incapable comme une partie de sa caste patronale de reconnaître une dystopie.
Si ces psychopathes sont incapables de reconnaître une dystopie, c'est parce que notre dystopie, c'est leur utopie. Malheureusement, ils voient ces chefs-d'œuvres de la littérature et du cinéma comme un mode d'emploi. Ils sont de plus en plus nombreux les oligarches à quasi-assumer le rôle du méchant de l'histoire, ou à se comparer à de célèbres méchants fictifs. C'est triste de voir que ces œuvres créées le plus souvent avec des idéaux de gauche en tête se retournent contre le peuple.
-
Shamael
M I A M E !!
Face à son incapacité à trouver des problèmes pour ses solutions, la Silicon Valley a décidé que le problème, au fond, c'était nous, et notre réticence instinctive à se laisser micromanager
Parfait : )
-
Max Médio
" il se précipite sur Meta AI pour accumuler des connaissances superficielles sur le sujet histoire de donner le change " Il ne crèche pas à l’Élysée celui-là ?
Sinon, cet article me confirme dans le choix de ne pas avoir de smartphone.