Catégories
Politiques socialistes

L'extrémisme de 'Boogaloo' continue de prospérer sur Facebook tandis que l'entreprise rejette les critiques

Le rapport décrit la réponse de Facebook au culte «Boogaloo» «lente et inefficace», permettant «au mouvement de persister sur sa plate-forme».

"Facebook a échoué à plusieurs reprises à supprimer les extrémistes" boogaloo "qui utilisent la plate-forme pour planifier un soulèvement militant – une illustration alarmante des problèmes plus larges de l'entreprise face aux contenus dangereux", indique le rapport dans son ouverture.

La société, selon le rapport, "n'a toujours pas réussi à repérer l'activité boogaloo et a manqué les simples changements de nom des groupes boogaloo conçus pour échapper à la détection." Ces problèmes – même face à la pression politique et médiatique pour agir – indiquent un «dysfonctionnement plus profond de la police de sa plate-forme pour des choses comme le discours de haine et la désinformation».

Il a fait cinq conclusions clés:

  • Le TTP a identifié 110 groupes boogaloo Facebook qui ont été créés depuis le 30 juin, lorsque Facebook a annoncé qu'il interdisait un réseau boogaloo «violent». Au moins 18 des groupes ont été créés le même jour que l'annonce de Facebook.
  • De nombreux groupes boogaloo ont facilement échappé à la répression de Facebook en se rebaptisant, souvent en cooptant les noms de films pour enfants, d'organismes de presse et même de Mark Zuckerberg. Certains des groupes les plus récents comptent déjà plus de 1 000 membres.
  • Du matériel sur la fabrication de bombes et d'autres activités violentes continue de circuler dans les groupes de boogaloo sur Facebook. Le contenu comprend un dossier Google Drive contenant des dizaines de manuels d'instructions pour la fabrication de bombes, les enlèvements et les meurtres.
  • Malgré la promesse de Facebook d'arrêter de recommander des groupes boogaloo aux utilisateurs, les algorithmes de l'entreprise continuent de suggérer des groupes et des pages liés à boogaloo, même lorsqu'ils n'utilisent pas le mot "boogaloo" dans leurs noms.
  • Facebook a cherché à justifier son approche sélective de la suppression des groupes boogaloo en faisant valoir que certaines parties du mouvement ne sont pas violentes – même si le terme «boogaloo» est synonyme de guerre civile.

Comme l'explique Tess Owen chez Vice, ce ne sont pas des échanges ordinaires sur un marché d'idées libres, comme semblent le penser les libertariens de Facebook. Ils impliquent à la fois une rhétorique violente visant un large éventail de cibles potentielles, ainsi que des discussions ouvertes sur l'organisation d'attaques violentes au nom du «Boogaloo».

Dans les groupes Facebook comptant des milliers de membres, les insurgés potentiels échangent et distribuent une grande variété de documents visant à organiser la guerre civile à venir: un «manuel d'enlèvement d'Al-Qaïda», le «Army Sniper Manual», rapporte de tels attentats. comme l'attaque terroriste islamiste de 2005 contre les métros et les bus de Londres, qui a fait 56 morts.

Owen observe: «La distribution de dossiers entiers contenant des instructions pour les actes de violence est une escalade, même par rapport à il y a à peine quelques mois, lorsque les membres ne faisaient que coller des recettes de cocktails Molotov directement dans des groupes Facebook.»

La volatilité du phénomène est soulignée par la façon dont les «patriotes» d'extrême droite armés ont été amenés à croire que des hordes de gauchistes vêtus de noir dans des «bus antifa» financés par George Soros étaient sur le point de descendre dans des dizaines de villes rurales du pays, provoquant une vague de réactions menaçantes et inquiétantes – tout cela parce qu'ils en avaient entendu parler sur Facebook. Dans plusieurs cas, les canulars ont été diffusés par la police, des fonctionnaires de la ville et d'autres personnes en position d'autorité.

Une partie de ce qui a perturbé les tentatives de Facebook de réprimer le phénomène a été la manipulation agile du mouvement de ses propres règles – suggérée par son adoption précoce de surnoms mnémotechniques, de mots de code tels que "Big Igloo" et "Big Luau" pour échapper à la détection censurée. sur les plateformes. Alors que Facebook tentait d'appliquer des algorithmes plus stricts pour détecter même ces évasions, le mouvement s'est rapidement adapté.

Une fois que les modérateurs ont compris ces codes, les groupes ont adopté un argot plus récent, comme «Alphabet Bois» (une référence à des agences fédérales comme le DHS, l'ATF, le FBI, la CIA), ou simplement «(expurgé)». Après l'action de Facebook contre les Boogaloo en juin (il a interdit des centaines de groupes et d'utilisateurs Boogaloo), les adhérents se sont réunis de nouveau sur MeWe, une application obscure. Là, ils ont conçu un plan pour créer de nouveaux groupes Facebook avec une nouvelle langue, y compris des références à CNN et VICE News.

«C'est un tout nouveau thème pour leur mouvement», a déclaré Kristin Paul de TTP à Owen. "Ils utilisent des mots comme" caméras et film "au lieu de" armes à feu et munitions "."

L'incapacité apparente de Facebook à contenir la propagation de l'extrémisme d'extrême droite est en train de devenir un problème mondial. Sa propre enquête interne sur la croissance parmi ses utilisateurs des théories de méta-conspiration d'extrême droite QAnon était non seulement immense – il y a maintenant des milliers de groupes QAnon sur Facebook, avec des millions de membres – mais elle se propageait au-delà des États-Unis jusqu'en Europe. et Australie.

De même, un précédent rapport du TTP a révélé que les suprémacistes blancs étaient capables de se frayer un chemin selon ses règles pour maintenir une présence toxique, y compris 113 des 221 groupes désignés comme groupes haineux par le Southern Poverty Law Center et l'Anti-Defamation League. Les algorithmes de la plate-forme, a-t-il déclaré, ont aggravé le problème en renvoyant les utilisateurs vers d'autres pages de la suprématie blanche, amplifiant l'idéologie en cours de route.

Facebook a réagi en appliquant de manière stoppée et incohérente ses conditions d'utilisation, qui interdisent explicitement les discours menaçants, violents ou haineux. Sa réponse initiale au déluge de conspiracisme de QAnon sur sa plate-forme a été d'interdire une poignée de pages et d'utilisateurs qui se sont livrés à la diffusion des affirmations bizarres de la secte – non pas pour répandre de faux calomnies, mais pour «un comportement inauthentique coordonné», c'est-à-dire parce que les gens ils ont enfreint les règles de Facebook sur les identités fausses ou doubles.

La propagation des nationalistes blancs et d'autres idéologies d'extrême droite a été un défi pour pratiquement toutes les entreprises basées sur Internet, y compris Google, YouTube et Twitter. Le plus grand obstacle a consisté à amener les entreprises à reconnaître que les systèmes de reporting ne peuvent à eux seuls ralentir cette propagation, et qu'en outre les algorithmes qui ont contribué à les rendre rentables jouent également un rôle puissant dans la création de boucles de rétroaction fermées qui intensifient les cycles de radicalisation qui améliorent considérablement – la capacité des bons idéologues à répandre la propagande.

La seule solution qui fonctionne consiste à employer une main-d'œuvre suffisamment nombreuse pour gérer l'effort humain d'élimination des matières toxiques, ainsi qu'une personne suffisamment formée aux nuances des idéologies et de leurs acteurs pour à la fois les reconnaître et agir en conséquence. Plusieurs plates-formes Internet, dont Twitter et Discord, ont fait des progrès substantiels pour faire face au problème de cette manière.

Facebook, cependant, ne l'a pas fait. Et bien que l'entreprise ne subisse peut-être pas les conséquences de cet échec aux États-Unis – le PDG Mark Zuckerberg, après tout, a tenu des séances privées avec Donald Trump et a clairement allié son entreprise à la droite de plus en plus radicale – ce sera un tout autre histoire pour l'entreprise à l'étranger, en particulier dans les pays qui ont rejoint la campagne mondiale de la Nouvelle-Zélande pour réformer les médias sociaux afin de les rendre moins hospitaliers à la haine et à la violence.

Paul de TTP pense que l’entreprise est pleinement capable d’effectuer le changement – la question est de savoir si elle le souhaite ou non.

«Facebook a une équipe antiterroriste de 350 personnes», a-t-elle déclaré à Owen. «Ces groupes ne sont pas difficiles à trouver si vous suivez le mouvement et comprenez quelle langue ils utilisent. Tout ce dont vous avez besoin, c'est d'au moins une personne dédiée pour vous assurer que ce mouvement reste déplatformé. "

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *