Les législateurs européens terminent leurs travaux sur une loi sur l’IA. L’administration Biden et les dirigeants du Congrès ont leurs plans pour freiner l’intelligence artificielle. Sam Altman, le directeur général d’OpenAI, créateur de la sensation d’intelligence artificielle ChatGPT, a recommandé la création d’une agence fédérale dotée d’un pouvoir de surveillance et d’octroi de licences lors d’un témoignage au Sénat la semaine dernière. Et le sujet a été soulevé au sommet du G7 au Japon.
Au milieu des plans et des promesses de grande envergure, la ville de New York est devenue un modeste pionnier de la réglementation de l’IA.
Le gouvernement de la ville a adopté une loi en 2021 et adopté des règles spécifiques le mois dernier pour une application à fort enjeu de la technologie : les décisions d’embauche et de promotion. L’exécution commence en juillet.
La loi de la ville oblige les entreprises utilisant un logiciel d’IA à l’embauche à informer les candidats qu’un système automatisé est utilisé. Il oblige également les entreprises à faire vérifier chaque année la technologie par des auditeurs indépendants pour détecter les biais. Les candidats peuvent demander et être informés des données collectées et analysées. Les entreprises seront condamnées à une amende en cas d’infraction.
L’approche ciblée de la ville de New York représente un front important dans la réglementation de l’IA. À un moment donné, les principes généraux élaborés par les gouvernements et les organisations internationales, disent les experts, doivent être traduits en détails et en définitions. Qui est concerné par la technologie ? Quels sont les avantages et les inconvénients? Qui peut intervenir et comment ?
“Sans cas d’utilisation concret, vous n’êtes pas en mesure de répondre à ces questions”, a déclaré Julia Stoyanovich, professeure associée à l’Université de New York et directrice de son Center for Responsible AI.
Mais avant même qu’elle n’entre en vigueur, la loi de la ville de New York a attiré les critiques. Les défenseurs de l’intérêt public disent que cela ne va pas assez loin, tandis que les groupes d’affaires disent que ce n’est pas pratique.
Les plaintes des deux camps pointent le défi de la régulation de l’IA, qui progresse à un rythme effréné avec des conséquences inconnues, suscitant enthousiasme et anxiété.
Les compromis délicats sont inévitables.
Mme Stoyanovich craint que la loi municipale ne comporte des lacunes qui pourraient l’affaiblir. « Mais c’est bien mieux que de ne pas avoir de loi », dit-elle. “Et jusqu’à ce que vous essayiez de réglementer, vous n’apprendrez pas comment.”
La loi s’applique aux entreprises ayant des travailleurs à New York, mais les experts du travail s’attendent à ce qu’elle influence les pratiques à l’échelle nationale. Au moins quatre États – la Californie, le New Jersey, New York et le Vermont – et le district de Columbia travaillent également sur des lois pour réglementer l’IA dans l’embauche. Et l’Illinois et le Maryland ont promulgué des lois limitant l’utilisation de technologies d’IA spécifiques, souvent pour la surveillance du lieu de travail et la sélection des candidats à un emploi.
La loi de la ville de New York a émergé d’un affrontement de points de vue fortement contradictoires. Le conseil municipal l’a adopté au cours des derniers jours de l’administration du maire Bill de Blasio. Des séries d’audiences et de commentaires publics, plus de 100 000 mots, sont venues plus tard – supervisées par le Département de la protection des consommateurs et des travailleurs de la ville, l’agence de réglementation.
Le résultat, selon certains critiques, est trop favorable aux intérêts commerciaux.
“Ce qui aurait pu être une loi historique a été édulcoré pour perdre en efficacité”, a déclaré Alexandra Givens, présidente du Center for Democracy & Technology, une organisation politique et de défense des droits civiques.
C’est parce que la loi définit un «outil de décision d’emploi automatisé» comme une technologie utilisée «pour aider ou remplacer considérablement la prise de décision discrétionnaire», a-t-elle déclaré. Les règles adoptées par la ville semblent interpréter cette formulation de manière étroite afin que le logiciel d’IA ne nécessite un audit que s’il est le seul ou le principal facteur dans une décision d’embauche ou s’il est utilisé pour annuler un humain, a déclaré Mme Givens.
Cela laisse de côté la principale manière dont le logiciel automatisé est utilisé, a-t-elle déclaré, un responsable du recrutement faisant invariablement le choix final. Le potentiel de discrimination fondée sur l’IA, a-t-elle dit, vient généralement de la sélection de centaines ou de milliers de candidats jusqu’à une poignée ou d’un recrutement en ligne ciblé pour générer un bassin de candidats.
Mme Givens a également critiqué la loi pour limiter les types de groupes mesurés pour un traitement injuste. Il couvre les préjugés liés au sexe, à la race et à l’origine ethnique, mais pas la discrimination à l’encontre des travailleurs âgés ou des personnes handicapées.
“Ma plus grande préoccupation est que cela devienne le modèle à l’échelle nationale alors que nous devrions demander beaucoup plus à nos décideurs”, a déclaré Mme Givens.
La loi a été resserrée pour l’affiner et s’assurer qu’elle était ciblée et applicable, ont déclaré des responsables de la ville. Le Conseil et l’agence de protection des travailleurs ont entendu de nombreuses voix, y compris des militants d’intérêt public et des éditeurs de logiciels. Son objectif était de peser les compromis entre l’innovation et les dommages potentiels, ont déclaré des responsables.
“Il s’agit d’un succès réglementaire important pour garantir que la technologie de l’IA est utilisée de manière éthique et responsable”, a déclaré Robert Holden, qui était président du comité du Conseil sur la technologie lorsque la loi a été adoptée et reste membre du comité.
La ville de New York essaie d’aborder les nouvelles technologies dans le contexte des lois fédérales sur le travail avec des directives sur l’embauche qui datent des années 1970. La principale règle de la Commission pour l’égalité des chances en matière d’emploi stipule qu’aucune pratique ou méthode de sélection utilisée par les employeurs ne doit avoir un «impact disparate» sur un groupe légalement protégé comme les femmes ou les minorités.
Les entreprises ont critiqué la loi. Dans un dossier déposé cette année, la Software Alliance, un groupe commercial qui comprend Microsoft, SAP et Workday, a déclaré que l’exigence d’audits indépendants de l’IA n’était “pas réalisable” car “le paysage de l’audit est naissant”, manquant de normes et d’organismes de surveillance professionnels.
Mais un domaine naissant est une opportunité de marché. Selon les experts, le secteur de l’audit de l’IA ne fera que croître. Il attire déjà des cabinets d’avocats, des consultants et des start-up.
Les entreprises qui vendent des logiciels d’IA pour faciliter les décisions d’embauche et de promotion ont généralement adopté la réglementation. Certaines ont déjà fait l’objet d’audits externes. Ils voient l’exigence comme un avantage concurrentiel potentiel, fournissant la preuve que leur technologie élargit le bassin de candidats à l’emploi pour les entreprises et augmente les opportunités pour les travailleurs.
“Nous pensons que nous pouvons respecter la loi et montrer à quoi ressemble une bonne IA”, a déclaré Roy Wang, avocat général d’Eightfold AI, une start-up de la Silicon Valley qui produit des logiciels utilisés pour aider les responsables du recrutement.
La loi de la ville de New York adopte également une approche de réglementation de l’IA qui pourrait devenir la norme. La mesure clé de la loi est un «rapport d’impact», ou un calcul de l’effet de l’utilisation du logiciel sur un groupe protégé de candidats à l’emploi. Il ne se penche pas sur la façon dont un algorithme prend des décisions, un concept connu sous le nom d ‘«explicabilité».
Dans les applications qui affectent la vie comme l’embauche, disent les critiques, les gens ont le droit d’avoir une explication sur la façon dont une décision a été prise. Mais l’IA comme les logiciels de type ChatGPT devient plus complexe, mettant peut-être l’objectif d’une IA explicable hors de portée, selon certains experts.
“L’accent devient la sortie de l’algorithme, pas le fonctionnement de l’algorithme”, a déclaré Ashley Casovan, directrice exécutive du Responsible AI Institute, qui développe des certifications pour l’utilisation sûre des applications d’IA sur le lieu de travail, les soins de santé et la finance.