“Comment Facebook a négligé le reste du monde, alimentant les discours haineux et la violence en Inde”, titre The Washington Post. “En Inde, les problèmes de Facebook sont encore amplifiés”, titre de son côté The New York Times. “Les plateformes de Facebook servent à répandre la haine religieuse en Inde, d’après des documents internes”, annonce The Wall Street Journal.
Les 23 et 24 octobre, ces trois grands journaux états-uniens ont publié de façon concomitante des révélations sur Facebook, fondées une fois de plus sur les documents fournis par la lanceuse d’alerte Frances Haugen. Cette fois, c’est le rôle des réseaux sociaux et messageries sous le contrôle de Mark Zuckerberg en dehors des États-Unis qui est mis en lumière. Tout particulièrement en Inde, où Facebook compte quelque 340 millions d’utilisateurs et WhatsApp plus de 400 millions. Le volet indien des “Facebook Files” avait déjà été exploré par le site d’information indien The Wire, repris par Courrier international.
“En février 2019 […] deux employés de Facebook ont créé un faux compte pour mieux comprendre l’expérience d’un nouvel utilisateur dans son plus grand marché. Ils ont configuré le profil d’une femme de 21 ans, vivant dans le nord de l’Inde, et suivi ce qui apparaissait sur son fil”, relate The Washington Post. Dans un contexte marqué par des violences au Cachemire et contre les personnes originaires de cette région frontalière avec le Pakistan, où le Premier ministre nationaliste hindou Narendra Modi a imposé depuis une répression brutale, “le compte a été soudain inondé de propagande pro-Modi et de discours anti-musulmans”.
L’essentiel des ressources va aux États-Unis
Ces employés ont produit une note interne alarmante, une des “dizaines d’études et de notes rédigées par des employés de Facebook sur les effets de la plateforme en Inde”, écrit The New York Times. Des documents qui corroborent une critique fréquente à l’encontre de Facebook : le réseau “s’installe dans un pays sans totalement comprendre l’impact qu’il pourrait avoir sur sa culture et sa vie politique ; et lorsque des problèmes surgissent, il n’engage pas les ressources nécessaires pour y faire face”.
De fait, souligne le journal, 87 % du budget de l’entreprise pour repérer la désinformation sont consacrés aux États-Unis, contre seulement 13 % pour le reste du monde. Un porte-parole de Facebook affirme que ces chiffres ne prennent pas en compte les sous-traitants du groupe pour la vérification d’informations, et que Facebook a investi ces dernières années dans des moyens humains et technologiques pour mieux repérer les discours haineux dans diverses langues.
Le collectif Next Billion Network, travaillant sur les effets des nouvelles technologies dans les pays en développement, dit avoir mis en garde Facebook à de multiples reprises sur les risques de violences communautaires provoquées par des discours haineux sur le réseau social. Pourtant, quand des émeutes meurtrières ont éclaté à Delhi l’an dernier, “des appels à la violence contre les usulmans sont restés sur le site alors qu’ils avaient été signalés”, rapporte The Washington Post.
Les problèmes du groupe de Mark Zuckerberg ne se limitent pas à l’Inde. Le Myanmar, le Sri Lanka, l’Éthiopie sont d’autres exemples de pays en développement où la désinformation, la haine et les appels à la violence ont circulé, souligne The New York Times.
“Au Sri Lanka, des gens ont pu ajouter automatiquement des centaines de milliers d’utilisateurs à des groupes sur Facebook, leur présentant des contenus haineux et des incitations à la violence. En Éthiopie, une milice de jeunes nationalistes est parvenue à coordonner des appels à la violence sur Facebook et à poster d’autres contenus incendiaires.”
Des niveaux de priorité différents
L’Inde ne semble pas la plus mal lotie, à en croire The Verge. Le site états-unien, s’appuyant lui aussi sur des documents fournis par Frances Haugen, relate une réunion interne de 2019 où les pays du monde ont été répartis en quatre niveaux. Le niveau 0, comprenant le Brésil, les États-Unis et l’Inde, correspondait à la priorité la plus élevée. Pour ces pays, Facebook a créé des “cellules de crise” pour surveiller le réseau social en permanence. Les cinq pays du niveau 1 avaient aussi leur cellule, avec des moyens un peu moins importants.
En revanche, les pays de niveaux 2 et 3, plus nombreux, n’avaient pas de cellule de crise. Au Myanmar, au Pakistan et en Éthiopie, trois pays considérés à très haut risque, Facebook n’avait même personne pour épingler la désinformation, selon The Verge. En Éthiopie, il n’existait pas non plus de ressources humaines pour repérer les discours de haine.
Fin 2020, note encore The Atlantic, un rapport interne “estimait que seuls 6 % des discours haineux en arabe sur Instagram étaient détectés par le groupe”. Les employés qui l’ont produit “reprochent aux dirigeants de l’entreprise de ne pas avoir assez investi” pour les combattre.
Et le magazine américain de conclure qu’aux États-Unis, “le Facebook que nous connaissons est la meilleure version de la plateforme. Il faudra trouver des solutions pour répondre non seulement aux problèmes toujours présents chez nous, mais aussi à ceux que rencontrent quotidiennement 90 % des utilisateurs de Facebook.”
Gabriel Hassan
Abonnez-vous à la Lettre de nouveautés du site ESSF et recevez par courriel la liste des articles parus, en français ou en anglais.