Agrandir / Une image générée par l’IA d’un globe qui a cessé de tourner.
Diffusion stable
Mercredi, le Future of Life Institute a publié une lettre ouverte sur son site Web appelant les laboratoires d’IA à « suspendre immédiatement pendant au moins 6 mois la formation des systèmes d’IA plus puissants que GPT-4 ». Signée par Elon Musk et plusieurs éminents chercheurs en intelligence artificielle, la lettre a rapidement commencé à attirer l’attention de la presse et quelques critiques sur les réseaux sociaux.
Plus tôt ce mois-ci, OpenAI a publié GPT-4, un modèle d’IA capable d’effectuer des tâches de composition et de passer des tests standardisés au niveau humain, bien que ces affirmations soient toujours en cours d’évaluation par la recherche. Quoi qu’il en soit, l’avancement des capacités de GPT-4 et de Bing Chat par rapport aux modèles d’IA précédents a effrayé certains experts qui pensent que nous nous dirigeons vers des systèmes d’IA super intelligents plus rapidement que prévu.
Dans ce sens, le Future of Life Institute soutient que les progrès récents de l’IA ont conduit à une “course incontrôlable” pour développer et déployer des modèles d’IA difficiles à prévoir ou à contrôler. Ils pensent que le manque de planification et de gestion de ces systèmes d’IA est préoccupant et que des systèmes d’IA puissants ne devraient être développés que lorsque leurs effets sont bien compris et gérables. Comme ils l’écrivent dans la lettre :
Les systèmes d’IA dotés d’une intelligence humaine et compétitive peuvent poser de graves risques pour la société et l’humanité, comme le montrent des recherches approfondies et reconnus par les meilleurs laboratoires d’IA. Comme indiqué dans les principes d’Asilomar AI largement approuvés, l’IA avancée pourrait représenter un changement profond dans l’histoire de la vie sur Terre, et devrait être planifiée et gérée avec un soin et des ressources proportionnés.
En particulier, la lettre pose quatre questions chargées, dont certaines supposent des scénarios hypothétiques très controversés dans certains milieux de la communauté de l’IA, notamment la perte de “tous les emplois” au profit de l’IA et la “perte de contrôle” de la civilisation :
Publicité
- « Devrions-nous laisser les machines inonder nos canaux d’information de propagande et de contrevérité ?
- « Devrions-nous automatiser tous les emplois, y compris ceux qui sont épanouissants ?
- « Devrions-nous développer des esprits non humains qui pourraient éventuellement être plus nombreux, plus intelligents, obsolètes et nous remplacer ?
- « Devrions-nous risquer de perdre le contrôle de notre civilisation ?
Pour faire face à ces menaces potentielles, la lettre appelle les laboratoires d’IA à « suspendre immédiatement pendant au moins 6 mois la formation des systèmes d’IA plus puissants que GPT-4 ». Pendant la pause, les auteurs proposent que les laboratoires d’IA et des experts indépendants collaborent pour établir des protocoles de sécurité partagés pour la conception et le développement de l’IA. Ces protocoles seraient supervisés par des experts extérieurs indépendants et devraient garantir que les systèmes d’IA sont “sûrs au-delà de tout doute raisonnable”.
Cependant, on ne sait pas ce que “plus puissant que GPT-4” signifie réellement dans un sens pratique ou réglementaire. La lettre ne précise pas comment assurer la conformité en mesurant la puissance relative d’un modèle de langage multimodal ou de grande taille. De plus, OpenAI a spécifiquement évité de publier des détails techniques sur le fonctionnement de GPT-4.
Le Future of Life Institute est une organisation à but non lucratif fondée en 2014 par un groupe de scientifiques préoccupés par les risques existentiels auxquels l’humanité est confrontée, notamment la biotechnologie, les armes nucléaires et le changement climatique. De plus, le risque existentiel hypothétique de l’IA a été un objectif clé pour le groupe. Selon Reuters, l’organisation est principalement financée par la Musk Foundation, le groupe d’altruisme efficace basé à Londres Founders Pledge et la Silicon Valley Community Foundation.
Parmi les signataires notables de la lettre confirmée par un journaliste de Reuters figurent le PDG de Tesla susmentionné, Elon Musk, les pionniers de l’IA Yoshua Bengio et Stuart Russell, le co-fondateur d’Apple Steve Wozniak, le PDG de Stability AI Emad Mostaque et l’auteur Yuval Noé Harari. La lettre ouverte est disponible pour toute personne sur Internet à signer sans vérification, ce qui a initialement conduit à l’inclusion de certains noms faussement ajoutés, tels que l’ancien PDG de Microsoft Bill Gates, le PDG d’OpenAI Sam Altman et le personnage fictif John Wick. Ces noms ont ensuite été supprimés.