Microsoft demande des règles d’IA pour minimiser les risques

Microsoft a approuvé jeudi une série de réglementations sur l’intelligence artificielle, alors que la société gère les inquiétudes des gouvernements du monde entier concernant les risques de l’évolution rapide de la technologie.

Microsoft, qui a promis d’intégrer l’intelligence artificielle dans nombre de ses produits, a proposé des réglementations incluant une exigence selon laquelle les systèmes utilisés dans les infrastructures critiques peuvent être complètement éteints ou ralentis, comme un système de freinage d’urgence sur un train. La société a également appelé à des lois pour clarifier quand des obligations légales supplémentaires s’appliquent à un système d’IA et pour des étiquettes indiquant clairement quand une image ou une vidéo a été produite par un ordinateur.

“Les entreprises doivent intensifier leurs efforts”, a déclaré Brad Smith, président de Microsoft, dans une interview à propos de la pression en faveur de la réglementation. “Le gouvernement doit agir plus vite.” Il a présenté les propositions devant un public qui comprenait des législateurs lors d’un événement au centre-ville de Washington jeudi matin.

L’appel à la réglementation ponctue un boom de l’IA, la sortie du chatbot ChatGPT en novembre suscitant une vague d’intérêt. Des entreprises telles que Microsoft et la société mère de Google, Alphabet, se sont depuis empressées d’intégrer la technologie dans leurs produits. Cela a alimenté les craintes que les entreprises sacrifient la sécurité pour atteindre le prochain grand succès avant leurs concurrents.

Les législateurs ont publiquement exprimé leur inquiétude quant au fait que ces produits d’IA, qui peuvent générer du texte et des images par eux-mêmes, créeront un flot de désinformation, seront utilisés par des criminels et mettront des personnes au chômage. Les régulateurs de Washington se sont engagés à être vigilants vis-à-vis des escrocs utilisant l’IA et des cas dans lesquels les systèmes perpétuent la discrimination ou prennent des décisions qui violent la loi.

En réponse à cet examen minutieux, les développeurs d’IA ont de plus en plus appelé à transférer une partie du fardeau de la surveillance de la technologie sur le gouvernement. Sam Altman, le directeur général d’OpenAI, qui fabrique ChatGPT et compte Microsoft comme investisseur, a déclaré ce mois-ci à un sous-comité sénatorial que le gouvernement devait réglementer la technologie.

La manœuvre fait écho aux appels à de nouvelles lois sur la confidentialité ou les médias sociaux lancés par des sociétés Internet telles que Google et Meta, la société mère de Facebook. Aux États-Unis, les législateurs ont agi lentement après de tels appels, avec peu de nouvelles règles fédérales sur la confidentialité ou les médias sociaux ces dernières années.

Dans l’interview, M. Smith a déclaré que Microsoft n’essayait pas de se décharger de la responsabilité de la gestion de la nouvelle technologie, car il proposait des idées spécifiques et s’engageait à en réaliser certaines, que le gouvernement agisse ou non.

“Il n’y a pas un iota d’abdication de responsabilité”, a-t-il déclaré.

Il a approuvé l’idée, soutenue par M. Altman lors de son témoignage au Congrès, qu’une agence gouvernementale devrait exiger des entreprises qu’elles obtiennent des licences pour déployer des modèles d’IA “hautement performants”.

“Cela signifie que vous informez le gouvernement lorsque vous commencez les tests”, a déclaré M. Smith. « Vous devez partager les résultats avec le gouvernement. Même lorsqu’il est autorisé à être déployé, vous avez le devoir de continuer à le surveiller et de signaler au gouvernement si des problèmes inattendus surviennent.

Microsoft, qui a réalisé plus de 22 milliards de dollars grâce à son activité de cloud computing au premier trimestre, a également déclaré que ces systèmes à haut risque ne devraient être autorisés à fonctionner que dans des “centres de données d’IA sous licence”. M. Smith a reconnu que l’entreprise ne serait pas “mal placée” pour offrir de tels services, mais a déclaré que de nombreux concurrents américains pourraient également les fournir.

Microsoft a ajouté que les gouvernements devraient désigner certains systèmes d’IA utilisés dans les infrastructures critiques comme “à haut risque” et exiger qu’ils aient un “frein de sécurité”. Il a comparé cette fonctionnalité aux « systèmes de freinage que les ingénieurs intègrent depuis longtemps dans d’autres technologies telles que les ascenseurs, les autobus scolaires et les trains à grande vitesse ».

Dans certains cas sensibles, a déclaré Microsoft, les entreprises qui fournissent des systèmes d’IA devraient avoir connaissance de certaines informations sur leurs clients. Pour protéger les consommateurs contre la tromperie, le contenu créé par l’IA devrait être tenu de porter une étiquette spéciale, a déclaré la société.

M. Smith a déclaré que les entreprises devraient assumer la “responsabilité” légale des dommages associés à l’IA. Dans certains cas, a-t-il dit, la partie responsable pourrait être le développeur d’une application comme le moteur de recherche Bing de Microsoft qui utilise la technologie d’IA sous-jacente de quelqu’un d’autre. Les entreprises du cloud pourraient être responsables du respect des réglementations de sécurité et d’autres règles, a-t-il ajouté.

“Nous n’avons pas nécessairement la meilleure information ou la meilleure réponse, ou nous ne sommes peut-être pas l’orateur le plus crédible”, a déclaré M. Smith. “Mais, vous savez, en ce moment, surtout à Washington DC, les gens recherchent des idées.”

commentaires

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Le plus populaire