Comment Facebook aurait contribué au génocide des Rohingyas
Malgré lui, Facebook aurait joué un rôle dans le massacre des Rohingyas en 2017. Incapable de modérer les publications haineuses, le réseau social aurait participé à l’aggravation des violences perpétrées par l’armée du Myanmar.
Unsplash
Amnesty International vient de publier un rapport à charge contre Facebook. L’ONG de défense des droits de l’Homme accuse le réseau social d’avoir joué « un rôle central » dans le massacre des Rohingyas.
L’extermination ethnique visant les Rohingyas, une minorité musulmane, a été décrétée par l’armée du Myanmar (ex-Birmanie) en août 2017. Des centaines de villages ont été rasés par les militaires cette année-là. Plus de 6 700 Rohingyas ont été massacrés. Considérés comme une menace pour la sécurité nationale, ils ont massivement fui le pays pour se rendre au Bangladesh.
Les algorithmes de Facebook attiseraient la haine
D’après Amnesty, les algorithmes de Facebook ont « favorisé de manière proactive la diffusion de messages d’appels à la haine et à la violence ». Plutôt que d’endiguer la profusion de publications haineuses, le réseau social a normalisé la « déshumanisation » des Rohingyas.
L’ONG appuie ses dires sur l’analyse de documents publiés par Frances Haugen, l’ancienne employée Facebook devenue lanceuse d’alerte. L’an dernier, la trentenaire a rendu public des milliers de documents internes appartenant à Meta, maison mère de Facebook. Ces dossiers ont notamment révélé que le groupe est bien conscient du potentiel de nuisance de ses réseaux sociaux.
« Nous avons la preuve, apportée par diverses sources, que les discours de haine, les discours politiques clivants et la désinformation sur Facebook […] nuisent à la société partout dans le monde », peut-on par exemple lire dans les rapports internes de Facebook.
Pour Frances Haugen, Meta ignore sciemment les dégâts de ses plates-formes par appât du gain. Amnesty s’est aussi entretenu avec d’anciens salariés de Facebook, des victimes du génocide ainsi qu’avec des experts, pour mettre au point son rapport.
Alors que les violences contre les Rohingyas s’intensifiaient, les algorithmes de Facebook ont mis en avant des centaines des messages de haine, constate l’ONG. Parmi les publications les plus populaires à l’époque, on trouve des déclarations du général en chef de l’armée du Myanmar. Des commentaires comme « les musulmans sont des chiens qui doivent être abattus » ont aussi été poussés par les algorithmes.
Pourtant, Facebook interdit formellement « les discours haineux »dans son règlement d’utilisation. Le réseau social s’est engagé à supprimer « tout contenu qui attaque directement des personnes »sur base de leur origine, religion, orientation sexuelle, de leur sexe ou d’une éventuelle infirmité.
Une modération inefficace
Pour Amnesty International, le géant californien s’est montré incapable de modérer l’entièreté des messages de haine qui déferlent sur ses réseaux. Facebook ne serait pas en mesure de modérer plus de 3 % des contenus haineux publiés par ses membres.
Le constat d’Amnesty est corroboré par HateAid, une ONG allemande. L’organisme a identifié de graves défaillances dans la modération de Facebook. Après une longue enquête, HateAid s’est rendu compte que 70 % des commentaires haineux, signalés aux modérateurs, ne sont pas supprimés.
Malgré les efforts de Facebook, les algorithmes mettraient donc en avant les contenus haineux parce que ce sont ceux qui suscitent le plus d’engagement. Pour l’ONG, les algorithmes donnent automatiquement « la priorité aux contenus les plus incendiaires ».
De facto, l’existence du réseau social aurait contribué à amplifier la haine contre les Rohingyas, avance Amnesty. En partant de ce postulat, des militants de la communauté Rohingyas réclament des dommages-intérêts à Meta. Avec l’aide d’Amnesty, ils ont initié une procédure devant l’Organisation de coopération et de développement économiques (OCDE).
Les militants demandent que Meta finance un projet d’enseignement dans un camp de réfugiés à hauteur d’un million de dollars, soit 0,002 % des bénéfices de l’entreprise en 2021. Le groupe de Mark Zuckerberg a refusé, assurant que « Facebook ne participe pas directement à des activités philanthropiques ». La firme a également publié un communiqué officiel :
« Meta est solidaire de la communauté internationale et soutient les efforts visant à tenir le Tatmadaw responsable de ses crimes contre le peuple Rohingya. À cette fin, nous avons divulgué volontairement et légalement des données au Mécanisme d’enquête indépendant pour le Myanmar des Nations Unies et à la Gambie, et nous participons également actuellement au processus de plainte de l’OCDE. Notre travail en matière de sécurité et d’intégrité au Myanmar reste guidé par les commentaires des organisations de la société civile locale et des institutions internationales, notamment la mission internationale indépendante d’établissement des faits sur le Myanmar des Nations Unies, l’Étude d’impact sur les droits de l’homme que nous avons commanditée en 2018, ainsi que notre gestion continue des risques liés aux droits de l’homme ».
Ce n’est pas la première fois que Facebook est accusé d’aggraver les tensions au sein de la société. Après l’attaque du Capitole, qui a marqué les derniers jours de la présidence Trump, plusieurs observateurs ont estimé que Facebook a fortement contribué à l’insurrection.
C’est notamment le cas de Frances Haugen. La lanceuse d’alertes assure que le réseau social a négligé la modération dans les semaines qui ont suivi les élections américaines. L’entreprise aurait choisi de « donner la priorité à la croissance plutôt qu’à la sûreté ». La plate-forme a fermement nié être responsable de l’attaque, considérant les accusations de Frances Haugen de « ridicules ».
(c) 2022, 01 Net
Comments