Cette cartographie du réseau peut également identifier une stratégie particulière utilisée par les acteurs malveillants consistant à diviser leurs historiques de modification entre un certain nombre de comptes pour échapper à la détection. Les éditeurs se sont efforcés de se forger une réputation et un statut au sein de la communauté Wikipédia, en mélangeant les modifications de pages légitimes avec les plus politiquement sensibles.
“Le principal message que j’ai retenu de tout cela est que le principal danger n’est pas le vandalisme. C’est de l’entrisme », dit Miller.
Si la théorie est correcte, cela signifie cependant que cela pourrait également prendre des années de travail aux acteurs étatiques pour monter une campagne de désinformation capable de passer inaperçue.
“Les opérations d’influence russes peuvent être assez sophistiquées et durer longtemps, mais je ne sais pas si les avantages seraient si importants”, déclare O’Neil.
Les gouvernements ont aussi souvent des outils plus contondants à leur disposition. Au fil des ans, des dirigeants autoritaires ont bloqué le site, poursuivi son organisation dirigeante en justice et arrêté ses rédacteurs.
Wikipédia lutte contre les inexactitudes et les fausses informations depuis 21 ans. L’une des tentatives de désinformation les plus longues a duré plus d’une décennie après qu’un groupe d’ultra-nationalistes ait joué avec les règles de l’administrateur de Wikipédia pour prendre le contrôle de la communauté de langue croate, réécrivant l’histoire pour réhabiliter les dirigeants fascistes du pays pendant la Seconde Guerre mondiale. La plate-forme a également été vulnérable aux efforts de «gestion de la réputation» visant à embellir les biographies de personnes puissantes. Ensuite, il y a des canulars purs et simples. En 2021, un éditeur chinois de Wikipédia a passé des années à écrire 200 articles d’histoire fabriquée de la Russie médiévale, avec des États imaginaires, des aristocrates et des batailles.
Pour lutter contre cela, Wikipédia a développé un ensemble de règles complexes, d’organes directeurs et de forums de discussion publics gérés par un organisme auto-organisé et autonome de 43 millions d’utilisateurs enregistrés à travers le monde.
Nadee Gunasena, chef de cabinet et responsable des communications à la Wikimedia Foundation, déclare que l’organisation “se réjouit de plonger profondément dans le modèle Wikimedia et nos projets”, en particulier dans le domaine de la désinformation. Mais elle ajoute également que la recherche ne couvre qu’une partie de l’historique d’édition de l’article.
“Le contenu de Wikipédia est protégé grâce à une combinaison d’outils d’apprentissage automatique et à une surveillance humaine rigoureuse de la part d’éditeurs bénévoles”, déclare Gunasena. Tout le contenu, y compris l’historique de chaque article, est public, tandis que l’approvisionnement est contrôlé pour sa neutralité et sa fiabilité.
Le fait que la recherche se soit concentrée sur les mauvais acteurs qui ont déjà été trouvés et extirpés peut également montrer que le système de Wikipédia fonctionne, ajoute O’Neil. Mais bien que l’étude n’ait pas produit de « preuve irréfutable », elle pourrait être inestimable pour Wikipédia : « L’étude est vraiment une première tentative de description d’un comportement d’édition suspect afin que nous puissions utiliser ces signaux pour le trouver ailleurs », déclare Miller.
Victoria Doronina, membre du conseil d’administration de la Wikimedia Foundation et biologiste moléculaire, affirme que Wikipédia a toujours été la cible d’attaques coordonnées par des «cabales» qui visent à biaiser son contenu.
“Alors que les éditeurs individuels agissent de bonne foi et qu’une combinaison de différents points de vue permet la création de contenu neutre, la coordination hors Wiki d’un groupe spécifique lui permet de fausser le récit”, dit-elle. Si Miller et ses chercheurs ont raison d’identifier les stratégies de l’État pour influencer Wikipédia, la prochaine lutte à l’horizon pourrait être « les Wikimédiens contre la propagande de l’État », ajoute Doronina.
Le comportement analysé des mauvais acteurs, dit Miller, pourrait être utilisé pour créer des modèles capables de détecter la désinformation et de déterminer à quel point la plate-forme est vulnérable aux formes de manipulation systématique qui ont été exposées sur Facebook, Twitter, YouTube, Reddit et d’autres plates-formes majeures.
L’édition en anglais de Wikipédia compte 1 026 administrateurs surveillant plus de 6,5 millions de pages, le plus grand nombre d’articles de toutes les éditions. La traque des mauvais acteurs s’est principalement appuyée sur une personne signalant un comportement suspect. Mais une grande partie de ce comportement peut ne pas être visible sans les bons outils. En termes de science des données, il est difficile d’analyser les données de Wikipédia car, contrairement à un tweet ou à un post Facebook, Wikipédia a plusieurs versions du même texte.
Comme l’explique Miller, “un cerveau humain ne peut tout simplement pas identifier des centaines de milliers de modifications sur des centaines de milliers de pages pour voir à quoi ressemblent les modèles”.