Aurich Lawson | Getty Images
Au cours des derniers mois, les chatbots IA comme ChatGPT ont attiré l’attention du monde entier en raison de leur capacité à converser de manière humaine sur à peu près n’importe quel sujet. Mais ils présentent un sérieux inconvénient : ils peuvent facilement présenter de fausses informations convaincantes, ce qui en fait des sources non fiables d’informations factuelles et des sources potentielles de diffamation.
Pourquoi les chatbots IA inventent-ils des choses, et pourrons-nous un jour faire pleinement confiance à leur résultat ? Nous avons interrogé plusieurs experts et étudié le fonctionnement de ces modèles d’IA pour trouver les réponses.
“Hallucinations” – un terme chargé en IA
Les chatbots d’IA tels que ChatGPT d’OpenAI s’appuient sur un type d’IA appelé “grand modèle de langage” (LLM) pour générer leurs réponses. Un LLM est un programme informatique formé sur des millions de sources de texte qui peut lire et générer du texte en “langage naturel” – un langage tel que les humains écriraient ou parleraient naturellement. Malheureusement, ils peuvent aussi faire des erreurs.
Dans la littérature académique, les chercheurs en IA appellent souvent ces erreurs “hallucinations”. Mais cette étiquette est devenue controversée à mesure que le sujet devient courant parce que certaines personnes pensent qu’elle anthropomorphise les modèles d’IA (suggérant qu’ils ont des caractéristiques humaines) ou leur donne une agence (suggérant qu’ils peuvent faire leurs propres choix) dans des situations où cela ne devrait pas être implicite. Les créateurs de LLM commerciaux peuvent également utiliser les hallucinations comme excuse pour blâmer le modèle d’IA pour les sorties défectueuses au lieu d’assumer la responsabilité des sorties elles-mêmes.
Pourtant, l’IA générative est si nouvelle que nous avons besoin de métaphores empruntées à des idées existantes pour expliquer ces concepts hautement techniques au grand public. Dans cette veine, nous pensons que le terme “confabulation”, bien que tout aussi imparfait, est une meilleure métaphore que “hallucination”. En psychologie humaine, une “confabulation” se produit lorsque la mémoire de quelqu’un a une lacune et que le cerveau comble le reste de manière convaincante sans avoir l’intention de tromper les autres. ChatGPT ne fonctionne pas comme le cerveau humain, mais le terme “confabulation” sert sans doute de meilleure métaphore car il y a un principe créatif de remplissage des lacunes à l’œuvre, comme nous l’explorerons ci-dessous.
Publicité
Le problème de la fabulation
C’est un gros problème lorsqu’un robot IA génère de fausses informations qui peuvent potentiellement induire en erreur, désinformer ou diffamer. Récemment, le Washington Post a rendu compte d’un professeur de droit qui a découvert que ChatGPT l’avait placé sur une liste de juristes qui avaient harcelé sexuellement quelqu’un. Mais cela ne s’est jamais produit – ChatGPT l’a inventé. Le même jour, Ars a rendu compte d’un maire australien qui aurait découvert que ChatGPT affirmait qu’il avait été reconnu coupable de corruption et condamné à une peine de prison, une fabrication complète.
Peu de temps après le lancement de ChatGPT, les gens ont commencé à proclamer la fin du moteur de recherche. Dans le même temps, cependant, de nombreux exemples de confabulations de ChatGPT ont commencé à circuler sur les réseaux sociaux. Le robot IA a inventé des livres et des études qui n’existent pas, des publications que les professeurs n’ont pas écrites, de faux articles universitaires, de fausses citations juridiques, des fonctionnalités système Linux inexistantes, des mascottes de vente au détail irréelles et des détails techniques qui n’ont pas de sens .
Curieux de savoir comment GPT remplacera Google s’il donne de mauvaises réponses avec une grande confiance.
Par exemple, j’ai demandé à ChatGPT de donner une liste des meilleurs livres sur la théorie cognitive sociale. Sur les 10 livres sur la réponse, 4 livres n’existent pas et 3 livres ont été écrits par des personnes différentes. pic.twitter.com/b2jN9VNCFv
— Herman Saksono (il/lui) (@hermansaksono) 16 janvier 2023
Et pourtant, malgré la prédilection de ChatGPT pour mentir avec désinvolture, contre-intuitivement, sa résistance à la confabulation est la raison pour laquelle nous en parlons même aujourd’hui. Certains experts notent que ChatGPT était techniquement une amélioration par rapport à la vanille GPT-3 (son modèle prédécesseur) car il pouvait refuser de répondre à certaines questions ou vous faire savoir quand ses réponses pourraient ne pas être exactes.
“Un facteur majeur du succès de Chat est qu’il parvient à supprimer suffisamment la confabulation pour la rendre imperceptible pour de nombreuses questions courantes”, a déclaré Riley Goodside, un expert des grands modèles de langage qui est ingénieur des invites du personnel chez Scale AI. “Par rapport à ses prédécesseurs, ChatGPT est nettement moins enclin à inventer des choses.”
S’ils sont utilisés comme outil de brainstorming, les sauts logiques et les confabulations de ChatGPT pourraient conduire à des percées créatives. Mais lorsqu’il est utilisé comme référence factuelle, ChatGPT pourrait causer de réels dommages, et OpenAI le sait.
Peu de temps après le lancement du modèle, le PDG d’OpenAI, Sam Altman, a tweeté : “ChatGPT est incroyablement limité, mais assez bon pour certaines choses pour créer une impression trompeuse de grandeur. C’est une erreur de s’y fier pour quelque chose d’important en ce moment. C’est un aperçu de progrès ; nous avons beaucoup de travail à faire sur la robustesse et la véracité.” Dans un tweet ultérieur, il a écrit : “Jet en sait beaucoup, mais le danger est qu’il est confiant et se trompe une bonne partie du temps.”
Que se passe t-il ici?