Twitter cachera les faux tweets des comptes de haut niveau en temps de crise –

Dans son effort continu pour lutter contre la désinformation sur les dernières nouvelles, Twitter déploie une politique de désinformation de crise pour s’assurer qu’il n’amplifie pas les mensonges en période de conflits généralisés.

Pour déterminer si un tweet est trompeur, Twitter exigera une vérification de la part de sources publiques crédibles, notamment des groupes de surveillance des conflits, des organisations humanitaires, des enquêteurs open source, des journalistes, etc. Si la plate-forme constate que le tweet est trompeur, elle affichera un avertissement sur le tweet, désactivera les likes, les retweets et les partages, et créera un lien vers plus de détails sur la politique. Ces tweets cesseront également de faire surface sur la page d’accueil, de rechercher ou d’explorer.

Notamment, Twitter « conservera ce contenu à des fins de responsabilité », il restera donc en ligne. Les utilisateurs n’auront qu’à cliquer sur l’avertissement pour afficher le tweet. Dans le passé, certains avertissements concernant les élections ou la désinformation sur le COVID-19 étaient simplement des avis qui apparaissaient en ligne sous le tweet, plutôt que de le couvrir entièrement.

Crédits image : Twitter

Twitter indique qu’il accordera la priorité à l’ajout d’avertissements aux tweets viraux ou aux publications de comptes de haut niveau, qui peuvent inclure des utilisateurs vérifiés, des médias affiliés à l’État et des comptes gouvernementaux. Cette stratégie a beaucoup de sens, car un tweet d’une personnalité éminente est plus susceptible de devenir viral qu’un tweet d’une personne ordinaire avec 50 abonnés – mais il est étonnant que davantage de plateformes n’aient pas déjà adopté cette approche.

Parmi les exemples de tweets susceptibles d’être signalés dans le cadre de cette politique, citons les faux rapports d’événements sur le terrain, les allégations trompeuses de crimes de guerre, d’atrocités ou d’utilisation d’armes et la désinformation sur la réponse de la communauté internationale, les sanctions, les opérations défensives, etc. Les anecdotes personnelles ne relèvent pas de la politique, pas plus que les opinions tranchées, les commentaires ou la satire des gens. Les tweets qui attirent l’attention sur une fausse affirmation afin de la réfuter sont également autorisés.

Twitter a commencé à travailler sur un cadre de désinformation de crise l’année dernière aux côtés d’organisations de défense des droits de l’homme, indique-t-il. Cette politique peut entrer en vigueur dans des circonstances telles que des urgences de santé publique ou des catastrophes naturelles, mais pour commencer, la plateforme utilisera ces tactiques pour atténuer la désinformation sur les conflits armés internationaux, en particulier l’attaque russe en cours contre l’Ukraine.

La plupart des réseaux sociaux ont eu du mal à modérer leur contenu pendant la guerre en Ukraine, et Twitter ne fait pas exception. Dans une circonstance, Twitter a pris la décision de supprimer la fausse affirmation de l’ambassade de Russie selon laquelle une victime enceinte d’un attentat à la bombe en Ukraine était un acteur de la crise. Twitter a également suspendu un compte diffusant une fausse théorie du complot selon laquelle les États-Unis détiennent des armes biologiques en Ukraine.

Il semble qu’il y ait une ligne fine entre le type de contenu qui serait entièrement supprimé ou les messages qui entraîneraient une suppression ou une interdiction. Cette politique aurait pu s’appliquer au tweet trompeur de l’ambassade de Russie, par exemple, mais à quel moment un compte est-il si violent qu’il mérite une interdiction ?

Notre approche pour atténuer les effets de la désinformation nuisible continue d’aller au-delà du binaire abandon/retrait de la modération.

Nous avons vu que ne pas amplifier le contenu préjudiciable peut réduire sa propagation de 30 à 50 %. Nous continuerons d’investir dans ces interventions à l’avenir.

– Yoel Roth (@yoyoel) 19 mai 2022

“La modération de contenu ne se limite pas à laisser ou supprimer du contenu”, a écrit le responsable de la sécurité et de l’intégrité de Twitter, Yoel Roth, dans un article de blog. “Nous avons constaté que ne pas amplifier ou recommander certains contenus, ajouter du contexte via des étiquettes et, dans les cas graves, désactiver l’engagement avec les Tweets, sont des moyens efficaces d’atténuer les dommages, tout en préservant la parole et les enregistrements des événements mondiaux critiques.”

Roth a ajouté dans un fil que Twitter a découvert que ne pas amplifier ce contenu peut réduire sa propagation de 30% à 50%.

Mais selon que l’offre de 44 milliards de dollars d’Elon Musk pour acheter Twitter se concrétise, ces politiques pourraient ne pas durer longtemps. Musk pense que la modération du contenu devrait refléter les règles de l’État, AKA, les directives de la communauté Twitter deviennent essentiellement le premier amendement sans nuance supplémentaire. Bien que cela puisse être attrayant pour les types de personnes qui ne reçoivent jamais de messages haineux, cette approche pourrait annuler de nombreux progrès sur Twitter, y compris des efforts comme celui-ci qui stoppent la propagation de fausses informations nuisibles.

Même ainsi, ces politiques ne sont jamais efficaces à 100 %, et une grande partie du contenu qui enfreint les directives échappe de toute façon à la détection. Cette semaine, nous avons rencontré plusieurs vidéos interdites de l’attaque terroriste du tireur de Buffalo sur des plateformes comme Twitter et Facebook, qui ont été laissées en ligne pendant des jours sans suppression. Une vidéo de l’horrible fusillade, que nous avons directement envoyée sur Twitter, reste toujours en ligne.

Ainsi, bien que ces politiques puissent être bien intentionnées, elles ne peuvent fonctionner aussi efficacement que si elles sont appliquées.

commentaires

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Le plus populaire