Plus tôt cette année, la Commission nationale de cohésion et d’intégration du pays, qui a été formée après les violences de 2007 pour assurer des élections pacifiques, a mis en garde contre “l’utilisation abusive des plateformes de médias sociaux pour perpétuer le discours de haine ethnique et l’incitation à la violence”, affirmant qu’en 2022 le discours de haine sur les plateformes sociales avait augmenté de 20 %. La commission a également cité l’augmentation des conflits communautaires et des attaques personnelles contre les politiciens, en plus d’autres conditions qui pourraient rendre les élections de cette année particulièrement tumultueuses.
Une vidéo TikTok d’un discours prononcé par Ruto comprenait la légende “Ruto déteste les Kikuyus et veut se venger en 2022”. Il a recueilli plus de 400 000 vues.
« Il y a une tentative très claire d’essayer d’utiliser les fantômes de 2007 pour déplacer les électeurs dans un sens ou dans l’autre, pour profiter ou glorifier la violence passée », dit Madung. “C’est quelque chose qui n’est absolument pas pris en compte dans les propres directives de TikTok sur le contenu des discours de haine.”
Contrairement à Facebook ou Twitter, TikTok sert du contenu aux utilisateurs en fonction non pas de ceux qu’ils suivent, mais de ce que la plate-forme estime être leurs intérêts. Cela peut rendre difficile pour des chercheurs comme Madung de déterminer comment le contenu se propage et à qui. “Il n’y a pas d’outil comme Crowdtangle pour TikTok”, dit-il. “Faire des recherches sur TikTok est fastidieux, parfois horrible, car j’ai dû regarder toutes les vidéos jusqu’au bout pour effectuer une analyse de contenu.”
De par sa nature même, TikTok est plus difficile à modérer que de nombreuses autres plateformes de médias sociaux, selon Cameron Hickey, directeur de projet à l’Algorithmic Transparency Institute. La brièveté des vidéos et le fait que beaucoup peuvent inclure des éléments audio, visuels et textuels rendent le discernement humain encore plus nécessaire pour décider si quelque chose enfreint les règles de la plate-forme. Même les outils d’intelligence artificielle avancés, comme l’utilisation de la synthèse vocale pour identifier rapidement les mots problématiques, sont plus difficiles « lorsque l’audio avec lequel vous traitez est également accompagné de musique », explique Hickey. “Le mode par défaut pour les personnes qui créent du contenu sur TikTok consiste également à intégrer de la musique.”
Cela devient encore plus difficile dans les langues autres que l’anglais.
“Ce que nous savons généralement, c’est que les plateformes réussissent mieux à traiter les contenus problématiques là où elles sont basées ou dans les langues dans lesquelles parlent les personnes qui les ont créées”, déclare Hickey. “Et il y a plus de gens qui fabriquent de mauvaises choses qu’il n’y a de personnes dans ces entreprises qui essaient de se débarrasser des mauvaises choses.”
De nombreux éléments de désinformation trouvés par Madung étaient du «contenu synthétique», des vidéos créées pour ressembler à une ancienne émission de nouvelles, ou elles utilisent des captures d’écran qui semblent provenir d’organes de presse légitimes.
“Depuis 2017, nous avons remarqué qu’il y avait une tendance naissante à l’époque à s’approprier les identités des marques de médias grand public”, explique Madung. “Nous constatons une utilisation généralisée de cette tactique sur la plate-forme, et elle semble fonctionner exceptionnellement bien.”
Madung s’est également entretenu avec l’ancien modérateur de contenu de TikTok, Gadear Ayed, pour mieux comprendre les efforts de modération de l’entreprise de manière plus générale. Bien qu’Ayed n’ait pas modéré les TikToks du Kenya, elle a dit à Madung qu’on lui demandait souvent de modérer du contenu dans des langues ou des contextes qu’elle ne connaissait pas, et qu’elle n’aurait pas eu le contexte pour dire si un média avait été manipulé.