“Cela m’étonne toujours que dans le monde physique, lorsque nous publions des produits, il y ait des directives très strictes”, déclare Farid. « Vous ne pouvez pas sortir un produit en espérant qu’il ne tue pas votre client. Mais avec les logiciels, nous nous disons : “Cela ne fonctionne pas vraiment, mais voyons ce qui se passera lorsque nous le diffuserons à des milliards de personnes.”
Si nous commençons à voir un nombre important de deepfakes se répandre pendant l’élection, il est facile d’imaginer quelqu’un comme Donald Trump partager ce type de contenu sur les réseaux sociaux et prétendre qu’il est réel. Un deepfake du président Biden disant que quelque chose de disqualifiant pourrait sortir peu de temps avant les élections, et beaucoup de gens pourraient ne jamais découvrir que c’était généré par l’IA. La recherche a toujours montré, après tout, que les fausses nouvelles se propagent plus loin que les vraies nouvelles.
Même si les deepfakes ne deviennent pas omniprésents avant l’élection de 2024, qui est encore dans 18 mois, le simple fait que ce type de contenu puisse être créé pourrait affecter l’élection. Le fait de savoir que des images, de l’audio et des vidéos frauduleux peuvent être créés relativement facilement pourrait amener les gens à se méfier du matériel légitime qu’ils rencontrent.
“À certains égards, les deepfakes et l’IA générative n’ont même pas besoin d’être impliqués dans l’élection pour qu’ils causent encore des perturbations, car maintenant le puits a été empoisonné avec cette idée que tout peut être faux”, déclare Ajder. “Cela fournit une excuse vraiment utile si quelque chose de gênant sort avec vous. Vous pouvez le rejeter comme faux.
Alors que peut-on faire face à ce problème ? Une solution est quelque chose appelé C2PA. Cette technologie signe de manière cryptographique tout contenu créé par un appareil, tel qu’un téléphone ou une caméra vidéo, et les documents qui ont capturé l’image, où et quand. La signature cryptographique est ensuite conservée sur un grand livre immuable centralisé. Cela permettrait aux personnes produisant des vidéos légitimes de montrer qu’elles sont, en fait, légitimes.
Certaines autres options impliquent ce qu’on appelle des images et des vidéos d’empreintes digitales et de filigrane. L’empreinte digitale consiste à prendre ce qu’on appelle des “hachages” du contenu, qui ne sont essentiellement que des chaînes de ses données, afin qu’il puisse être vérifié comme légitime plus tard. Le filigrane, comme vous vous en doutez, consiste à insérer un filigrane numérique sur les images et les vidéos.
Il a souvent été proposé que des outils d’IA puissent être développés pour détecter les deepfakes, mais Ajder n’est pas convaincu par cette solution. Il dit que la technologie n’est pas assez fiable et qu’elle ne pourra pas suivre les outils d’IA générative en constante évolution qui sont en cours de développement.
Une dernière possibilité pour résoudre ce problème serait de développer une sorte de fact-checker instantané pour les utilisateurs des réseaux sociaux. Selon Aviv Ovadya, chercheur au Berkman Klein Center for Internet & Society à Harvard, vous pouvez mettre en évidence un élément de contenu dans une application et l’envoyer à un moteur de contextualisation qui vous informerait de sa véracité.
« L’éducation aux médias qui évolue au rythme des progrès de cette technologie n’est pas facile. Vous avez besoin qu’il soit presque instantané, où vous regardez quelque chose que vous voyez en ligne et vous pouvez obtenir un contexte sur cette chose », explique Ovadya. « Qu’est-ce que tu regardes ? Vous pourriez le faire recouper avec des sources auxquelles vous pouvez faire confiance.
Si vous voyez quelque chose qui pourrait être une fausse nouvelle, l’outil pourrait vous informer rapidement de sa véracité. Si vous voyez une image ou une vidéo qui semble être fausse, il pourrait vérifier les sources pour voir si elle a été vérifiée. Ovadya dit qu’il pourrait être disponible dans des applications comme WhatsApp et Twitter, ou pourrait simplement être sa propre application. Le problème, dit-il, est que de nombreux fondateurs avec qui il a parlé ne voient tout simplement pas beaucoup d’argent dans le développement d’un tel outil.
Reste à savoir si l’une de ces solutions possibles sera adoptée avant les élections de 2024, mais la menace grandit et beaucoup d’argent est consacré au développement de l’IA générative et peu à la recherche de moyens d’empêcher la propagation de ce type de désinformation. .
“Je pense que nous allons voir un flot d’outils, comme nous le voyons déjà, mais je pense [AI-generated political content] continuera », dit Ajder. “Fondamentalement, nous ne sommes pas bien placés pour gérer ces technologies incroyablement rapides et puissantes.”