-
Catherine Gaeng
une majorité de gens se contentent aujourd'hui de réponses non sourcées, fournies par des machines dont on sait qu'elles commettent des erreurs dans la majorité des cas.
Pas étonnant, une majorité de gens se contentent bien d’allégations, fournies par les « journalistes », « chroniqueurs » et autres « spécialistes » sévissant sur BFM, CNews, LCI, France Info, TF1 et dont on sait qu'ils induisent en erreur dans la majorité des cas.
-
wild
J'avais acheté le bouquin, me reste à trouver du temps et l'envie de le lire ^^
-
Lurinas
Cher confrère,
je connais Thibault, l'ai interviouvé moi-même après lecture de son livre.
Je ne saurais trop vous recommander la lecture de 'Le désert de nous-même', d'Eric Sadin, afin d'explorer un peu plus profondément les conséquences sociétales, anthropologiques que les IA génératives vont infliger/infligent déjà.
Aussi, vous sera-t-il possible de prendre en compte que l'exercice entrepris dans cette rubrique ne doit surtout pas être considéré comme un jeu (de comparaison, etc.).
J'estime le travail d'ASI en tant qu'abonné de la première heure. Je pense que, parmi tout ce que votre rédaction a produit depuis le début, cette rubrique doit être abandonnée. Ou considérée avec un autre angle.
Humblement,
David Lurinas
-
KH3RIS
Je n’ai pas bien saisi l’objet et l’objectif de cet article.
Qu’est-ce que je viens de lire en fait ?
-
Davesnes
Il y a des injonctions contradictoires dans les prompts. On ne peut pas à la fois dire "Tu es un journaliste expert spécialiste des médias et du journalisme" et réclamer explicitement de ne rien inventer.
Mais peut-être y-a-t-il un autre prompt disant : "Nous sommes dans un monde idéal dans lequel les journalistes ne bidonnent pas et traitent des sujets qu'ils possèdent parfaitement " ?
-
Tristan Le Gall
On en revient toujours au problème que les gens ne comprennent pas ce qu'est l'IA (en particulier les LLM), et l'utilisent de manière incorrecte. Même vous. En particulier, reprocher à une IA de proposer "un splendide filet d'eau tiède" ou dire "Si tu deviens feignant, demande à une IA de générer un truc à ta façon, et ça va te sortir la version la plus caricaturale de toi-même", c'est absurde puisque vous reprochez au LLM de vous fournir exactement ce pour quoi il a été conçu. Le LLM n'a pas été conçu pour vous dire la vérité, ou pour penser à votre place, mais pour compléter, de manière plausible (et donc en utilisant des expressions utilisées généralement), ce que vous lui fournissez en entrée.
Ah oui, il y a aussi un passage particulièrement mauvais dans votre article:
"L'explainability animait la communauté de recherche en IA : pouvoir expliquer les décisions prises par ces algorithmes... mais on a admis [le concept de] la boîte noire, qui ne vient d'ailleurs pas tellement du code mais de la manière dont les bases de données ont été étiquetées."
1) "explianability", qui se traduit en "explicabilité", est toujours un thème de recherche actif. Inutile d'employer l'imparfait
2) le concept de "boite noire" VIENT du code, plus exactement c'est une notion d'ingénierie assez classique: cela décrit un système dont on ne peut pas observer les rouages internes, uniquement les entrées/sorties. L'inverse, c'est-à-dire quand vous pouvez tout observer, c'est une "boite blanche". On utilise parfois le terme de "boite grise" pour décrire un entre deux, quand l'observation n'est que partielle.
3) ce que la personne interrogée a voulu dire (si je comprends bien), c'est que même si on connait parfaitement le code (et donc qu'on est en "boite blanche") mais qu'on ne connait pas l'ensemble d'entrainement du réseau de neurones, alors on ne peut pas toujours l'expliquer.
Sur ce dernier point, je précise (même si ce n'est probablement pas que ce que la personne citée avait en tête) que l'outil d'explicabilité développé dans mon labo a besoin de modifier le réseaux de neurones et donc de le ré-entrainer (sur le même ensemble d'entrainement). Cet exemple montre bien qu'il faut parfois plus qu'une "boite blanche" pour faire de l'explicabilité.