Catégories
Politiques socialistes

Des groupes Facebook ont ​​envoyé des vigiles armés à Kenosha. Votre bureau de vote pourrait être le prochain. – Mère Jones

Un homme armé à Kenosha, Wisconsin, le 25 août, la nuit où deux personnes ont été tuées par un justicier.Chris Juhn / Zuma

Pour des reportages indispensables sur la crise des coronavirus, les élections, etc., abonnez-vous au Mother Jones au quotidien bulletin.

Trois mois après l'élection de 2016, au cours de laquelle Facebook a facilité la diffusion de fausses nouvelles et de désinformation en provenance de Russie, la société a annoncé un pivot. Sous pression, Facebook a présenté des plans pour «bâtir une communauté sûre qui prévient les dommages» et «aide pendant les crises», avec une «compréhension commune» et un engagement civique accru. La société a déclaré que le chemin vers ce monde meilleur passerait par la fonction de groupes de la plate-forme, que Zuckerberg a présentée comme un moyen de «soutenir nos besoins personnels, émotionnels et spirituels» et de construire un «tissu social».

Mais au lieu d’ouvrir une nouvelle ère de communauté et de sécurité, la décision du géant des médias sociaux de donner la priorité aux espaces de discussion a engendré la désinformation et le vigilantisme. Les groupes Facebook ont ​​été utilisés pour organiser des réponses armées aux manifestations de cet été qui sont devenues meurtrières, un bilan qui suggère qu'ils pourraient alimenter le chaos pendant ou après les élections de novembre, catalysant des réactions violentes et diffusant de fausses informations déstabilisantes.

Au lieu d'introduire la communauté et la sécurité, les groupes Facebook ont ​​engendré la désinformation et le vigilantisme.

Les groupes «sont la plus grande vulnérabilité de la plate-forme», déclare Nina Jankowicz, membre du Wilson Center qui les a étudiées dans le cadre de ses recherches sur la désinformation et la démocratie. Lorsqu'ils utilisent des groupes privés, les utilisateurs de Facebook sont prêts à penser qu'ils se trouvent dans des espaces sûrs et fiables, ce qui, selon elle, accroît leur vulnérabilité à la radicalisation et à la désinformation. Même au sein des groupes, les algorithmes de Facebook donnent la priorité au contenu sensationnel.

Facebook a pris une autre décision fatidique l'année dernière qui a rendu les groupes encore plus dangereux. En avril 2019, la société a annoncé un «pivot vers la confidentialité», une réponse à la fois à la popularité croissante des forums de discussion privés rivaux comme Discord et une réaction au scandale Cambridge Analytica dans lequel Facebook n'a pas réussi à protéger les données des utilisateurs. Dans le cadre de cette réorientation, Facebook a rendu les groupes encore plus importants, en repensant sa plateforme pour en pousser davantage vers les utilisateurs. «Les groupes sont désormais au cœur de l'expérience au même titre que vos amis et votre famille», a expliqué le PDG Mark Zuckerberg. Selon une note interne rédigée en août et divulguée au Bord, les publications aux groupes ont augmenté de 31,9% par rapport à l'année précédente.

Ensemble, ces étapes ont créé une plate-forme de radicalisation susceptible de provoquer des dégâts bien pires qu'en 2016. Les groupes fermés existent désormais en tant qu'écosystème privé largement non réglementé, où les utilisateurs peuvent rapidement diffuser du contenu qui restera largement hors du radar— y compris des journalistes et des propres modérateurs de Facebook – qui ne sont pas à l'intérieur des espaces. Les groupes privés et publics peuvent devenir des espaces de planification et de coordination de la violence, que les modérateurs de Facebook et les outils d'intelligence artificielle se sont révélés incapables – et peut-être peu disposés – d'arrêter.

En juillet, Jankowicz a co-écrit un éditorial dans Filaire mise en garde sur le danger des groupes Facebook et le rôle qu'ils peuvent jouer dans la radicalisation:

Si vous deviez rejoindre le groupe Alternative Health Science News, par exemple, Facebook vous recommanderait alors, en fonction de vos intérêts, de rejoindre un groupe appelé Sheep No More, qui utilise Pepe the Frog, un symbole suprémaciste blanc, dans son en-tête, ainsi que Q-Anon Patriots, un forum pour les adeptes de la théorie du complot farfelu QAnon. Alors que les manifestations en réponse à la mort de George Floyd se propageaient à travers le pays, les membres de ces groupes ont affirmé que Floyd et la police impliquée étaient des «acteurs de crise» à la suite d'un scénario.

L'exemple de Jankowicz correspond étroitement aux tendances qui ont surgi après les premières vagues de commandes de séjour à domicile en réponse au coronavirus, qui a poussé les vies américaines à migrer encore plus loin en ligne. L'adhésion à des groupes Facebook sur la santé a commencé à faire circuler du contenu sur le coronavirus, y compris certains sceptiques quant à son existence ou à sa gravité. De nouveaux groupes sont apparus pour pousser à la réouverture immédiate après les verrouillages, qui comprenaient des croisements avec des milices et des nationalistes blancs. Certains de ces groupes ont également présenté des utilisateurs poussant le complot QAnon, dont les adhérents pensent que le président Donald Trump sauve des enfants d'une cabale de trafic sexuel dans un État profond, entre autres idées insensées.

L'algorithme de recommandation de Facebook joue un rôle important dans ce pipeline en recommandant des groupes similaires. "C'est là que commence la génération des bulles", a déclaré un ingénieur Facebook qui travaille sur des groupes au Bord, expliquant comment les profils de programmation de l'entreprise puis isolent les gens. "Un utilisateur entre dans un groupe, et Facebook le place essentiellement dans un style de vie dont il ne pourra jamais vraiment sortir."

Les groupes fermés existent en tant qu'écosystème privé en grande partie non réglementé, où les utilisateurs peuvent rapidement diffuser du contenu hors du radar.

Depuis le début de la pandémie, l'adhésion aux groupes Facebook de QAnon a augmenté, souvent grâce à ce pipeline créé par Facebook. L'une des recrues importantes est la femme surnommée «QAnon Karen», qui viral après une fusion de l'anti-masque dans une cible. Comme elle l'a expliqué plus tard à NBC News, son voyage QAnon a commencé dans des groupes de bien-être new age avant la pandémie. Une fois qu'elle s'est ennuyée dans le verrouillage, les algorithmes de contenu et le doomscrolling induit par la pandémie l'ont amenée à la conspiration. Alors que Facebook a annoncé en août qu'il supprimerait 790 groupes QAnon de la plateforme et limiterait la capacité de ses abonnés à s'organiser, un mois plus tard, le New York Times a constaté que le complot était toujours en plein essor sur la plate-forme. Après l'annonce des restrictions, le journal a suivi 100 groupes encore actifs, constatant qu'ils ajoutaient en moyenne 13 500 membres par semaine. Dans certains cas, le Fois ont rapporté que les algorithmes de Facebook continuaient de pousser les utilisateurs vers des groupes où le complot était discuté.

L’une des plus grandes craintes de Jankowicz à propos des prochaines élections est la possibilité que des groupes s’accrochent et partagent la désinformation plantée, que ce soit de la part d’un agent russe ou de quelqu'un qui crée le chaos à l’intérieur des États-Unis. «Tout ce qu'ils ont à faire est de supprimer le lien dans un groupe», dit-elle. "Alors les mécanismes d'engagement prêts à l'emploi de Facebook piloteront ce contenu, plus il sera scandaleux ou scandaleux." Au lieu d’acheter des publicités ou de créer des milliers de comptes trolls pour diffuser un message, une personne peut désormais déposer un lien incendiaire dans un groupe Facebook et les propres algorithmes de la plate-forme feront le travail d’amplification.

Cet automne, Jankowicz craint particulièrement que de fausses nouvelles concernant la suppression des électeurs, les bulletins de vote par correspondance et la fraude ne se propagent sans contrôle dans les groupes. «Les gens ont été prêts à écouter ces récits à cause de ce que le président a dit», dit-elle, notant qu’elle a déjà observé que la désinformation sur le vote gagne du terrain dans les groupes. Alors que Facebook s'est engagé publiquement à supprimer les informations erronées sur le vote de sa plateforme, cette modération n'atteint souvent pas les groupes privés. Un porte-parole de Facebook a vanté l'intelligence artificielle de l'entreprise comme un outil pour lutter contre la désinformation sur les votes. "Nous avons formé nos systèmes pour identifier les contenus potentiellement violants afin de pouvoir les supprimer avant que quiconque ne le signale", a déclaré le porte-parole. «Une fois qu'un élément de contenu a été vérifié, notre technologie trouve et étiquette le contenu identique partout où il apparaît sur la plate-forme, y compris dans les groupes privés. Nous continuons également de supprimer les groupes qui violent nos politiques, y compris des centaines de QAnon et des milices au cours du mois dernier.

Avec le La menace de désinformation électorale vient la menace de violence, planifiée en ligne mais menée dans le monde réel. Ben Decker, le fondateur de Memetica, une société d'enquêtes numériques axée sur la désinformation et l'extrémisme, craint que les groupes Facebook ne deviennent un endroit où les gens envisagent de mettre des armes dans les rues. «Nous n’utilisons plus vraiment le terme« loup solitaire », dit-il. «Nous parlons de terrorisme stochastique, dans la mesure où il y a cette incitation aléatoire et non autorisée à la violence sans organisation explicite.» Comme l'explique Decker, les groupes servent de forums où les gens lancent des appels à la violence ou font écho aux appels à la violence de personnalités comme le président Trump auxquels quelqu'un peut répondre, même s'il est imprévisible de qui. Mais ces répondants isolés se retrouvent en ligne. "Cette menace stochastique est en train de devenir quelque chose de plus en plus organisé."

«Nous parlons de terrorisme stochastique… d'incitation à la violence sans organisation explicite.»

Ce qui s'est passé à Kenosha, dans le Wisconsin le mois dernier, en est un excellent exemple. Plusieurs groupes ont utilisé Facebook pour coordonner l'apport d'armes à une manifestation Black Lives Matter organisée en réponse à la fusillade de la police sur Jacob Blake. Un groupe de miliciens appelé Kenosha Guard a utilisé une page Facebook pour amener des justiciers armés aux manifestations du 25 août. Pendant ce temps, un groupe Facebook public créé pour encourager une réponse armée aux manifestations appelées «STAND UP KENOSHA !!!! CE SOIR NOUS VENONS ENSEMBLE. » Selon le laboratoire de recherche médico-légale numérique du Conseil de l’Atlantique, les membres de ce groupe l’ont utilisé toute la nuit pour se coordonner, publiant de nombreux commentaires encourageant la force meurtrière contre les manifestants. L'une des personnes attirées par Kenosha cette nuit-là était Kyle Rittenhouse, un partisan de Trump de 17 ans. Il a tiré sur trois manifestants du BLM, en tuant deux.

Facebook a montré à plusieurs reprises que même lorsque la violence est organisée sur sa plateforme, il est mal équipé pour réagir. La page de l'événement du Kenosha Guard était publique, permettant à 455 personnes de le signaler à Facebook. Malgré les plaintes, les modérateurs et les algorithmes de l'entreprise ont déterminé à plusieurs reprises que la page n'enfreignait pas ses politiques. Facebook dit maintenant que c'était une erreur de le laisser en place, a blâmé les modérateurs sous contrat pour l'erreur et a déclaré que les milices ne sont plus autorisées sur le site, bien que beaucoup y restent. (Cette semaine, quatre personnes ont poursuivi Facebook, affirmant qu'il fournissait une plate-forme aux milices de droite pour planifier d'assassiner et de terroriser des manifestants à Kenosha.) Mais même si Facebook améliore sa capacité à répondre aux événements publics et aux groupes gênants, l'activité peut rapidement évoluer à de nouveaux groupes. Lorsque Facebook a supprimé les groupes QAnon, certains ont germé sous de nouveaux noms, en utilisant un langage légèrement modifié pour éviter la détection.

Kenosha n’était pas la première fois que Facebook permettait à des manifestants armés de s’organiser sur sa plateforme. Dès 2015, Muslim Advocates, une organisation à but non lucratif de défense des droits civiques, a averti que les groupes islamophobes utilisaient les pages d'événements Facebook pour organiser des rassemblements armés. En 2016, le groupe a rencontré la chef de la politique de Facebook, Monika Bickert, et lui a montré des images de manifestants armés de fusils rassemblés à l'extérieur des mosquées qui s'étaient organisés en utilisant les pages d'événements Facebook. Rien n'a changé et, les années suivantes, l'organisation a continué à voir des groupes armés anti-musulmans s'organiser sur Facebook. «Nous avons rencontré ce problème encore et encore avec Facebook, où ils pointeront vers une ligne ou quelque chose dans leurs politiques très, très générales, en disant: 'Oh, nous empêchons la haine ici' ou 'Nous agissons contre les fanatiques. ici », déclare Eric Naing, un porte-parole du groupe. "Mais si vous regardez quand le caoutchouc rencontre la route, quand Facebook est réellement utilisé par le public, il est constamment utilisé pour organiser la haine et la violence."

Facebook savait que les groupes posaient un problème avant même de repenser ses systèmes pour les mettre en avant. En 2016, un chercheur d'entreprise a découvert que les contenus extrémistes fleurissaient dans un tiers des groupes politiques allemands, la plupart privés, et que les groupes se développaient grâce aux propres algorithmes de recommandation de Facebook. Mais plutôt que d'arrêter cette tendance, l'année suivante, ils ont développé ce modèle au nom de la communauté et de la sécurité.

"Nous avons rencontré ce problème encore et encore avec Facebook."

En 2017, Facebook a été utilisé pour organiser le rassemblement fatal de la suprématie blanche à Charlottesville, en Virginie, après quoi la société a finalement commencé à supprimer les groupes haineux blancs. Mais beaucoup ont échappé au retrait, tandis que d'autres sont apparus sans se décourager. Le mouvement boogaloo, qui cherche à déclencher une guerre civile, a prospéré sur la plate-forme jusqu'à cet été après que les procureurs fédéraux aient inculpé plusieurs membres de crimes, y compris de meurtre et de complot pour utiliser la violence lors d'une manifestation Black Lives Matter. En réponse, Facebook a supprimé des centaines de groupes, de pages et de comptes affiliés, bien que d'autres se soient levés depuis pour prendre leur place.

Habitué à un processus démocratique pacifique et transfert de pouvoir, il peut sembler alarmiste de s'inquiéter du chaos, des émeutes armées et de la désinformation de masse en novembre. Mais le terrain est planté, non seulement par les canaux de radicalisation fournis par Facebook et d'autres plateformes de médias sociaux, mais par Trump et ses alliés républicains. Leur message, venant de plus en plus fréquemment, est que si le président ne remporte pas la réélection, il aura été volé. «La seule façon pour nous de perdre cette élection est de truquer les élections. Souvenez-vous de cela », a déclaré Trump au Wisconsin en août. «Soyez des observateurs de sondages lorsque vous y allez», a-t-il déclaré à une foule en Caroline du Nord au début du mois. «Regardez tous les vols, les vols et les vols qu’ils font.» Dans une interview à Fox News quelques jours plus tard, Trump a déclaré que les personnes qui manifesteraient contre lui après les élections étaient des «insurrectionnels» et ont approuvé un «châtiment» meurtrier contre un personnage des manifestations de Portland cet été, Michael Forest Reinoehl, qui aurait tué de loin -droit contre-manifestant.

Ce message a rapidement filtré jusqu'à ses alliés. Sur Facebook en direct la semaine dernière, le porte-parole du ministère de la Santé et des Services sociaux et loyaliste de Trump, Michael Caputo, a averti que Trump gagnerait en novembre, mais que la violence s'ensuivrait. «Lorsque Donald Trump refusera de se retirer lors de l'inauguration, le tournage commencera», a-t-il déclaré. "Les exercices que vous avez vus ne sont rien." (La diatribe de Caputo l’a incité à prendre un congé de l’agence.) Le message de ces exemples et d’autres est de se préparer à la violence.

À la fin de l’année dernière, un groupe bipartite préoccupé par la présidence qui brise les normes de Trump a formé le projet d’intégrité de la transition. En juin, ils ont fait appel à des experts des campagnes, des sondages, des médias et du gouvernement des deux partis politiques pour faire des simulations de ce qui pourrait se passer après les élections. Le groupe a exploré quatre résultats potentiels: un glissement de terrain Biden, une victoire étroite à Biden, Trump remporte le collège électoral mais perd le vote populaire, et une longue période d'incertitude semblable à 2000. Les résultats étaient terrifiants. «À l'exception du scénario 'big Biden win', chacun de nos exercices a atteint le bord de la catastrophe, avec des campagnes de désinformation massives, de la violence dans les rues et une impasse constitutionnelle», a écrit Rosa Brooks, l'une des co-fondatrices du projet et professeur de droit à l'Université de Georgetown, dans le Washington Post ce mois-ci.

«Les agents politiques, tant nationaux qu'étrangers, tenteront très probablement d'utiliser les réseaux sociaux pour semer la discorde et même pousser les gens vers la violence.»

Les résultats du groupe mettent l’accent sur les plates-formes de médias sociaux, dont Facebook est de loin la plus importante, et sur l’importance de leurs pratiques de modération dans la période sensible post-électorale. «Les médias sociaux en particulier joueront sans aucun doute un rôle important dans la manière dont le public perçoit le résultat des élections», états du rapport. «Les agents politiques, tant nationaux qu'étrangers, tenteront très probablement d'utiliser les médias sociaux pour semer la discorde et même pousser les gens vers la violence. La politique et les décisions d’application des entreprises de médias sociaux seront conséquentes. »

La semaine dernière, Facebook a annoncé de nouvelles mesures pour lutter contre la désinformation et la violence, y compris des modifications de son algorithme de recommandation de groupe. La société affirme qu'elle ne recommandera plus les groupes liés à la santé et que les groupes liés à la violence – y compris QAnon et les milices – ne seront pas seulement recommandés, mais seront supprimés des résultats de recherche des utilisateurs et auront bientôt moins de contenu présenté. dans les fils d'actualité des utilisateurs. Facebook dit également qu'il supprimera les groupes qui présentent à plusieurs reprises du contenu enfreignant les règles de l'entreprise et ne recommandera pas de groupes qui partagent à plusieurs reprises des informations jugées fausses par les partenaires de vérification des faits de Facebook. Bien que les mesures promises puissent avoir un impact, les efforts de Facebook pour endiguer la croissance de QAnon au cours du mois dernier démontrent une capacité limitée à appliquer rapidement et efficacement de nouvelles restrictions.

Le vote étant déjà en cours, les experts craignent que les mesures ne soient trop limitées et trop tardives. Même avec de nouvelles limites sur leur portée, les groupes Facebook servent déjà d'infrastructure robuste et radicalisante. Les modifications apportées aux algorithmes sont finalement de petits changements dans un écosystème déjà dangereux. «Je ne retiens vraiment pas mon souffle pour que Facebook modifie l’infrastructure du fonctionnement des groupes avant les élections», déclare Jankowicz. Même s'ils le voulaient, dit-elle, "malheureusement, il ne reste plus beaucoup de temps, et ces grands changements sur les plates-formes de cette taille prennent vraiment beaucoup de temps." Facebook n'a pas indiqué avoir mis en place de plan d'urgence si sa plateforme, et ses groupes en particulier, devenaient une plaque tournante pour organiser la violence et répandre la désinformation après le jour du scrutin.

Il existe des scénarios dans lesquels le résultat des élections est clair le soir des élections. Mais Decker réfléchit à ce qui se passera dans le cas le plus probable où il faudrait des jours ou des semaines pour compter ou recompter les votes décisifs. "Qui va se mobiliser hors ligne à cause de ces chambres d'écho de groupe, et comment?" il se demande. "Facebook a créé un environnement dans lequel cette théorie du chaos peut tout se jouer."

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *