ASI Lite
  • Articles
  • Émissions
  • Chroniques
  • Connexion

Pour accéder à la totalité du contenu vous devez vous connecter avec vos identifiants à Arrêt sur Images.
Pour des raisons de sécurité cet accès est restreint pour le moment. Demandez la procédure à l'auteur, François.

  • Catherine Gaeng 12 novembre 2025 à 23:31

    une majorité de gens se contentent aujourd'hui de réponses non sourcées, fournies par des machines dont on sait qu'elles commettent des erreurs dans la majorité des cas.

     

    Pas étonnant, une majorité de gens se contentent bien d’allégations, fournies par les « journalistes », « chroniqueurs » et autres « spécialistes » sévissant sur BFM, CNews, LCI, France Info, TF1 et dont on sait qu'ils induisent en erreur dans la majorité des cas.

  • wild 12 novembre 2025 à 19:48

    J'avais acheté le bouquin, me reste à trouver du temps et l'envie de le lire ^^

  • Lurinas 12 novembre 2025 à 17:21

    Cher confrère,

    je connais Thibault, l'ai interviouvé moi-même après lecture de son livre.

    Je ne saurais trop vous recommander la lecture de 'Le désert de nous-même', d'Eric Sadin, afin d'explorer un peu plus profondément les conséquences sociétales, anthropologiques que les IA génératives vont infliger/infligent déjà.

    Aussi, vous sera-t-il possible de prendre en compte que l'exercice entrepris dans cette rubrique ne doit surtout pas être considéré comme un jeu (de comparaison, etc.).

    J'estime le travail d'ASI en tant qu'abonné de la première heure. Je pense que, parmi tout ce que votre rédaction a produit depuis le début, cette rubrique doit être abandonnée. Ou considérée avec un autre angle.

    Humblement, 

    David Lurinas

  • KH3RIS 12 novembre 2025 à 14:40

    Je n’ai pas bien saisi l’objet et l’objectif de cet article. 

    Qu’est-ce que je viens de lire en fait ?

  • Davesnes 12 novembre 2025 à 12:20

    Il y a des injonctions contradictoires dans les prompts. On ne peut pas à la fois dire "Tu es un journaliste expert spécialiste des médias et du journalisme" et réclamer explicitement de ne rien inventer.

    Mais peut-être y-a-t-il un autre prompt disant : "Nous sommes dans un monde idéal dans lequel les journalistes ne bidonnent pas et traitent des sujets qu'ils possèdent parfaitement " ?

  • Tristan Le Gall 12 novembre 2025 à 12:14

    On en revient toujours au problème que les gens ne comprennent pas ce qu'est l'IA (en particulier les LLM), et l'utilisent de manière incorrecte. Même vous. En particulier, reprocher à une IA de proposer "un splendide filet d'eau tiède" ou dire "Si tu deviens feignant, demande à une IA de générer un truc à ta façon, et ça va te sortir la version la plus caricaturale de toi-même", c'est absurde puisque vous reprochez au LLM de vous fournir exactement ce pour quoi il a été conçu. Le LLM n'a pas été conçu pour vous dire la vérité, ou pour penser à votre place, mais pour compléter, de manière plausible (et donc en utilisant des expressions utilisées généralement), ce que vous lui fournissez en entrée.





    Ah oui, il y a aussi un passage particulièrement mauvais dans votre article:


    "L'explainability animait la communauté de recherche en IA : pouvoir expliquer les décisions prises par ces algorithmes... mais on a admis [le concept de] la boîte noire, qui ne vient d'ailleurs pas tellement du code mais de la manière dont les bases de données ont été étiquetées."


    1) "explianability", qui se traduit en "explicabilité", est toujours un thème de recherche actif. Inutile d'employer l'imparfait


    2) le concept de "boite noire" VIENT du code, plus exactement c'est une notion d'ingénierie assez classique: cela décrit un système dont on ne peut pas observer les rouages internes, uniquement les entrées/sorties. L'inverse, c'est-à-dire quand vous pouvez tout observer, c'est une "boite blanche". On utilise parfois le terme de "boite grise" pour décrire un entre deux, quand l'observation n'est que partielle. 


    3) ce que la personne interrogée a voulu dire (si je comprends bien), c'est que même si on connait parfaitement le code (et donc qu'on est en "boite blanche") mais qu'on ne connait pas l'ensemble d'entrainement du réseau de neurones, alors on ne peut pas toujours l'expliquer.


    Sur ce dernier point, je précise (même si ce n'est probablement pas que  ce que la personne citée avait en tête) que l'outil d'explicabilité développé dans mon labo a besoin de modifier le réseaux de neurones et donc de le ré-entrainer (sur le même ensemble d'entrainement). Cet exemple montre bien qu'il faut parfois plus qu'une "boite blanche" pour faire de l'explicabilité.


Dossiers - Thèmes - Auteurs

Ce site open-source affiche les contenus d'Arrêt sur images d'une manière optimisé sur mobile. Non affilié à Arrêt sur images. Créé par @francois2metz. Voici la documentation de l'API.