Parmi les dangers de l’IA, les deepfakes inquiètent le plus le président de Microsoft

Agrandir / Une image générée par l’IA d’un “mur de fausses images”.

Diffusion stable

Jeudi, le président de Microsoft, Brad Smith, a annoncé que sa plus grande appréhension à propos de l’IA tournait autour de la préoccupation croissante pour les deepfakes et les médias synthétiques conçus pour tromper, rapporte Reuters.

Smith a fait ces remarques tout en révélant son “plan directeur pour la gouvernance publique de l’IA” dans un discours à Planet World, un musée des arts du langage à Washington, DC. Ses inquiétudes surviennent alors que les discussions sur la réglementation de l’IA sont de plus en plus courantes, suscitées en grande partie par la popularité du ChatGPT d’OpenAI et une tournée politique du PDG d’OpenAI, Sam Altman.

Smith a exprimé son désir d’urgence dans la formulation de moyens de différencier les photos ou vidéos authentiques de celles créées par l’IA lorsqu’elles pourraient être utilisées à des fins illicites, en particulier pour permettre une désinformation déstabilisatrice de la société.

“Nous allons devoir aborder les problèmes liés aux deepfakes. Nous allons devoir aborder en particulier ce qui nous préoccupe dans la plupart des opérations de cyber-influence étrangères, les types d’activités qui ont déjà lieu par le gouvernement russe, les Chinois, les Iraniens », a déclaré Smith, selon Reuters. “Nous devons prendre des mesures pour nous protéger contre la modification de contenus légitimes dans le but de tromper ou d’escroquer les gens grâce à l’utilisation de l’IA.”

Smith a également fait pression pour l’introduction de licences pour les formes critiques d’IA, arguant que ces licences devraient comporter des obligations de protection contre les menaces à la sécurité, qu’elles soient physiques, de cybersécurité ou nationales. “Nous aurons besoin d’une nouvelle génération de contrôles à l’exportation, au moins de l’évolution des contrôles à l’exportation dont nous disposons, pour garantir que ces modèles ne sont pas volés ou utilisés d’une manière qui violerait les exigences du pays en matière de contrôle des exportations”, a-t-il déclaré.

Publicité

La semaine dernière, Altman a comparu au Sénat américain et a exprimé ses inquiétudes au sujet de l’IA, affirmant que l’industrie naissante devait être réglementée. Altman, dont la société OpenAI est soutenue par Microsoft, a plaidé pour une coopération mondiale sur l’IA et des incitations au respect de la sécurité.

Dans son discours de jeudi, Smith a fait écho à ces sentiments et a insisté sur le fait que les gens doivent être tenus responsables des problèmes causés par l’IA. Il a demandé instamment que des mesures de sécurité soient mises en place sur les systèmes d’IA contrôlant les infrastructures critiques, comme le réseau électrique et l’approvisionnement en eau, afin d’assurer une surveillance humaine.

Dans un effort pour maintenir la transparence autour des technologies d’IA, Smith a exhorté les développeurs à développer un système de type “connaissez votre client” pour surveiller de près la façon dont les technologies d’IA sont utilisées et informer le public sur le contenu créé par l’IA, ce qui facilite la identifier le contenu fabriqué. Dans ce sens, des entreprises telles qu’Adobe, Google et Microsoft travaillent toutes sur des moyens de filigraner ou d’étiqueter le contenu généré par l’IA.

Les deepfakes font l’objet de recherches chez Microsoft depuis des années. En septembre, le directeur scientifique de Microsoft, Eric Horvitz, a rédigé un article de recherche sur les dangers des deepfakes interactifs et de la création d’historiques synthétiques, sujets également couverts dans un article de 2020 dans FastCompany par cet auteur, qui mentionnait également les efforts antérieurs de Microsoft pour détecter les deepfakes. .

Pendant ce temps, Microsoft pousse simultanément à inclure la technologie d’IA générative basée sur le texte et l’image dans ses produits, y compris Office et Windows. Son lancement brutal d’un chatbot Bing inconditionné et sous-testé (basé sur une version de GPT-4) en février a suscité des réactions profondément émotionnelles de la part de ses utilisateurs. Cela a également ravivé les craintes latentes que la superintelligence dominante dans le monde soit imminente, une réaction qui, selon certains critiques, fait partie d’une campagne de marketing consciente des fournisseurs d’IA.

La question demeure donc : qu’est-ce que cela signifie lorsque des entreprises comme Microsoft vendent le produit même contre lequel elles nous mettent en garde ?

commentaires

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Le plus populaire