Les dirigeants d’OpenAI mettent en garde contre le “risque d’extinction” de l’intelligence artificielle dans une nouvelle lettre ouverte

Agrandir / Une image générée par l’IA de “l’IA prend le contrôle du monde”.

Diffusion stable

Mardi, le Center for AI Safety (CAIS) a publié une déclaration en une seule phrase signée par des dirigeants d’OpenAI et de DeepMind, des lauréats du prix Turing et d’autres chercheurs en IA avertissant que le travail de leur vie pourrait potentiellement éteindre toute l’humanité.

La brève déclaration, qui, selon le CAIS, vise à ouvrir la discussion sur le thème “d’un large éventail de risques importants et urgents liés à l’IA”, se lit comme suit : “L’atténuation du risque d’extinction de l’IA devrait être une priorité mondiale aux côtés d’autres problèmes sociétaux. des risques à grande échelle tels que les pandémies et la guerre nucléaire.”

Parmi les signataires de premier plan de la déclaration figurent les lauréats du prix Turing Geoffery Hinton et Yoshua Bengio, le PDG d’OpenAI Sam Altman, le scientifique en chef d’OpenAI Ilya Sutskever, la directrice technique d’OpenAI Mira Murati, le PDG de DeepMind Demis Hassabis, le PDG d’Anthropic Dario Amodei et des professeurs de l’UC Berkeley, Stanford. et MIT.

Cette déclaration intervient alors qu’Altman parcourt le monde, prenant des réunions avec des chefs d’État concernant l’IA et ses dangers potentiels. Plus tôt en mai, Altman a plaidé pour une réglementation de son industrie devant le Sénat américain.

Compte tenu de sa courte longueur, la lettre ouverte du PCSRA se distingue par ce qu’elle n’inclut pas. Par exemple, il ne précise pas exactement ce que cela signifie par “IA”, étant donné que le terme peut s’appliquer à tout, des mouvements fantômes dans Pac-Man aux modèles de langage capables d’écrire des sonnets dans le style d’un gangster sage des années 1940. La lettre ne suggère pas non plus comment les risques d’extinction pourraient être atténués, mais seulement que cela devrait être une “priorité mondiale”.

Publicité

Cependant, dans un communiqué de presse connexe, le CAIS dit qu’il veut “mettre en place des garde-fous et mettre en place des institutions afin que les risques liés à l’IA ne nous prennent pas au dépourvu”, et compare l’avertissement sur l’IA à l’avertissement de J. Robert Oppenheimer sur les effets potentiels. de la bombe atomique.

Les experts en éthique de l’IA ne sont pas amusés

Une image générée par l'IA d'un globe qui a cessé de tourner.Agrandir / Une image générée par l’IA d’un globe qui a cessé de tourner.

Diffusion stable

Ce n’est pas la première lettre ouverte sur les dangers hypothétiques de l’IA qui met fin au monde que nous avons vu cette année. En mars, le Future of Life Institute a publié une déclaration plus détaillée signée par Elon Musk qui préconisait une pause de six mois dans les modèles d’IA “plus puissants que GPT-4”, qui a reçu une large couverture médiatique mais a également rencontré une réponse sceptique. de certains membres de la communauté de l’apprentissage automatique.

Les experts qui se concentrent souvent sur l’éthique de l’IA ne sont pas amusés par cette tendance émergente aux lettres ouvertes.

Le Dr Sasha Luccioni, chercheuse en apprentissage automatique chez Hugging Face, compare la nouvelle lettre du CAIS à un tour de passe-passe : “Tout d’abord, mentionner le risque existentiel hypothétique de l’IA dans le même souffle que des risques très tangibles comme les pandémies et le changement climatique , qui sont très frais et viscéraux pour le public, lui donne plus de crédibilité », dit-elle. “C’est aussi une mauvaise direction, attirer l’attention du public sur une chose (risques futurs) pour qu’il ne pense pas à une autre (risques tangibles actuels comme les préjugés, les problèmes juridiques et le consentement).”

commentaires

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Le plus populaire