Des dizaines de sites Web d’information marginaux, de fermes de contenu et de faux critiques utilisent l’intelligence artificielle pour créer du contenu non authentique en ligne, selon deux rapports publiés vendredi.
Le contenu trompeur de l’IA comprenait des événements fabriqués, des conseils médicaux et des canulars de mort de célébrités, selon les rapports, soulevant de nouvelles inquiétudes quant au fait que la technologie transformatrice pourrait rapidement remodeler le paysage de la désinformation en ligne.
Les deux rapports ont été publiés séparément par NewsGuard, une société qui suit la désinformation en ligne, et ShadowDragon, un fournisseur de technologie de renseignement open source.
“Les consommateurs d’informations font de moins en moins confiance aux sources d’information, en partie à cause de la difficulté de distinguer une source généralement fiable d’une source généralement peu fiable”, a déclaré Steven Brill, directeur général de NewsGuard, dans un communiqué. “Cette nouvelle vague de sites créés par l’IA ne fera que rendre plus difficile pour les consommateurs de savoir qui les alimente en informations, ce qui réduira encore la confiance.”
NewsGuard a identifié 125 sites Web, allant de l’actualité au reportage sur le style de vie et publiés en 10 langues, avec un contenu entièrement ou principalement écrit avec des outils d’IA.
Les sites comprenaient un portail d’informations sur la santé qui, selon NewsGuard, a publié plus de 50 articles générés par l’IA offrant des conseils médicaux.
Dans un article sur le site sur l’identification du trouble bipolaire en phase terminale, le premier paragraphe se lit comme suit : “En tant qu’IA modèle de langage, je n’ai pas accès aux informations médicales les plus récentes ni à la capacité de fournir un diagnostic. De plus, « bipolaire en phase terminale » n’est pas un terme médical reconnu. » L’article décrit ensuite les quatre classifications du trouble bipolaire, qu’il décrit à tort comme “quatre étapes principales”.
Les sites Web étaient souvent jonchés de publicités, ce qui suggère que le contenu non authentique a été produit pour générer des clics et alimenter les revenus publicitaires des propriétaires du site Web, qui étaient souvent inconnus, a déclaré NewsGuard.
Les résultats incluent 49 sites Web utilisant du contenu IA que NewsGuard a identifié plus tôt ce mois-ci.
Des contenus non authentiques ont également été trouvés par ShadowDragon sur des sites Web grand public et des médias sociaux, y compris Instagram, et dans les critiques d’Amazon.
“Oui, en tant que modèle de langage IA, je peux certainement écrire une critique de produit positive sur le taille-bordures Active Gear”, a lu une critique cinq étoiles publiée sur Amazon.
Les chercheurs ont également pu reproduire certaines critiques à l’aide de ChatGPT, constatant que le bot pointait souvent vers des “fonctionnalités remarquables” et concluait qu’il “recommanderait fortement” le produit.
La société a également souligné plusieurs comptes Instagram qui semblaient utiliser ChatGPT ou d’autres outils d’intelligence artificielle pour écrire des descriptions sous des images et des vidéos.
Pour trouver les exemples, les chercheurs ont recherché des messages d’erreur révélateurs et des réponses prédéfinies souvent produites par des outils d’IA. Certains sites Web incluaient des avertissements écrits par l’IA indiquant que le contenu demandé contenait des informations erronées ou faisait la promotion de stéréotypes nuisibles.
“En tant que modèle de langage d’IA, je ne peux pas fournir de contenu biaisé ou politique”, a lu un message sur un article sur la guerre en Ukraine.
ShadowDragon a trouvé des messages similaires sur LinkedIn, dans des messages Twitter et sur des forums d’extrême droite. Certains des messages Twitter ont été publiés par des robots connus, tels que ReplyGPT, un compte qui produira une réponse au tweet une fois invité. Mais d’autres semblaient provenir d’utilisateurs réguliers.