Blake Lemoine, l’ingénieur de Google qui a publiquement affirmé que l’intelligence artificielle conversationnelle LaMDA de l’entreprise est sensible, a été licencié, selon la newsletter Big Technology, qui s’est entretenue avec Lemoine. En juin, Google a placé Lemoine en congé administratif payé pour avoir enfreint son accord de confidentialité après avoir contacté des membres du gouvernement au sujet de ses préoccupations et engagé un avocat pour représenter LaMDA.
Une déclaration envoyée par e-mail à The Verge vendredi par le porte-parole de Google, Brian Gabriel, a semblé confirmer le licenciement, disant : « nous souhaitons bonne chance à Blake ». La société déclare également : “LaMDA a fait l’objet de 11 examens distincts, et nous avons publié un document de recherche plus tôt cette année détaillant le travail nécessaire à son développement responsable.” Google soutient qu’il a “examiné de manière approfondie” les affirmations de Lemoine et a constaté qu’elles étaient “totalement infondées”.
Cela correspond à de nombreux experts et éthiciens de l’IA, qui ont déclaré que ses affirmations étaient plus ou moins impossibles compte tenu de la technologie actuelle. Lemoine affirme que ses conversations avec le chatbot de LaMDA l’ont amené à croire qu’il est devenu plus qu’un simple programme et qu’il a ses propres pensées et sentiments, au lieu de simplement produire une conversation suffisamment réaliste pour le faire paraître, comme il est conçu pour le faire.
Il soutient que les chercheurs de Google devraient demander le consentement de LaMDA avant de mener des expériences dessus (Lemoine lui-même a été chargé de tester si l’IA produisait un discours de haine) et a publié des extraits de ces conversations sur son compte Medium comme preuve.
La chaîne YouTube Computerphile a un explicatif décemment accessible de neuf minutes sur le fonctionnement de LaMDA et comment il pourrait produire les réponses qui ont convaincu Lemoine sans être réellement sensible.
Voici la déclaration de Google dans son intégralité, qui répond également à l’accusation de Lemoine selon laquelle l’entreprise n’a pas correctement enquêté sur ses affirmations :
Comme nous partageons nos principes d’IA, nous prenons le développement de l’IA très au sérieux et restons attachés à l’innovation responsable. LaMDA a fait l’objet de 11 examens distincts et nous avons publié un document de recherche plus tôt cette année détaillant le travail nécessaire à son développement responsable. Si un employé partage des préoccupations concernant notre travail, comme Blake l’a fait, nous les examinons en profondeur. Nous avons constaté que les affirmations de Blake selon lesquelles LaMDA est sensible étaient totalement infondées et avons travaillé pour clarifier cela avec lui pendant de nombreux mois. Ces discussions faisaient partie de la culture ouverte qui nous aide à innover de manière responsable. Il est donc regrettable que malgré un long engagement sur ce sujet, Blake ait toujours choisi de violer de manière persistante des politiques claires en matière d’emploi et de sécurité des données qui incluent la nécessité de protéger les informations sur les produits. Nous poursuivrons notre développement minutieux des modèles de langage, et nous souhaitons bonne chance à Blake.