Harcèlement, blessures morales et physiques, voire des décès : la violence sur Facebook peut avoir des conséquences dramatiques dans la vie réelle. Hannah Gittings en a fait la tragique expérience le 25 août dernier lors d’un rassemblement à Kenosha (Wisconsin) avec son compagnon, Anthony Huber, en soutien à Jacob Blake, un Afro-américain blessé par balles deux jours plus tôt par un policier blanc.
Très vite, le cortège pacifique se retrouve confronté à une milice d’extrême droite, Kenosha Guard, ayant appelé sur Facebook à prendre les armes pour “protéger” la ville. Leur page n’a pas été retirée malgré des centaines de signalements.
L’un des participants, un adolescent de 17 ans muni d’un fusil semi-automatique, tire à bout portant sur un manifestant et le tue. Anthony Huber se précipite alors sur le jeune homme pour se saisir de son arme, mais est abattu, sous les yeux de sa compagne.
“La page (Kenosha Guard) a non seulement été maintenue, mais elle a été jugée non dangereuse alors que des membres incitaient ouvertement à la violence en disant qu’ils allaient tirer sur des Noirs et sur des « émeutiers » qui protégeaient la ville”, s’est émue Hannah Gittings lors d’une récente conférence de presse organisée par l’ONG Avaaz. Elle a engagé en septembre des poursuites contre Facebook, outrée par des propos de son patron Mark Zuckerberg, qui a qualifié la non-suppression de la page Kenosha Guard d’erreur de fonctionnement”.
Des massacres de Rohingyas en Birmanie au récent meurtre du professeur Samuel Paty en France, des appels à la violence sur Facebook se sont traduits par des drames. Face aux critiques, le réseau social veut prendre ses responsabilités. “Nous travaillons sans relâche pour améliorer notre technologie et renforcer nos mesures quand cela est nécessaire afin d’éliminer les contenus dangereux de notre plateforme”, a assuré un porte-parole de Facebook à l’AFP.
La plateforme affirme avoir multiplié les initiatives pour assainir les échanges. Elle a notamment sévi contre les mouvances racistes ou conspirationnistes comme QAnon, démantelé des réseaux de manipulation et investi dans un programme de vérification des informations par des tiers.
L’entreprise dit avoir identifié plus de 600 groupes paramilitaires depuis août et supprimé plus de 22 millions de publications à caractère haineux cet été. Mais pour beaucoup, c’est trop peu et trop tard.
Selon une étude réalisée en octobre par SurveyUSA, 65 % des Américains sondés ont vu apparaître sur leur fil Facebook des messages politiques mensongers pendant la campagne présidentielle et un quart d’entre eux y a cru. Joyce Jones a dû y faire face lors de la campagne municipale à Montevallo, dans l’Alabama, où elle s’est portée candidate en août.
“Nous avons fait un débat avec mon opposant un mardi soir et j’ai découvert le lendemain matin (sur Facebook) que je soutenais la suppression des budgets de la police”, se rappelle cette Afro-américaine.
“J’étais la première surprise, car je n’ai jamais rien suggéré de tel”, a précisé Mme Jones, qui s’est retrouvée dépassée par le flot de fausses informations non filtrées par le réseau social.
Le jour du scrutin, sa grand-mère se serait vu refuser l’accès au bureau de vote parce qu’elle portait un t-shirt avec le nom de sa petite-fille, une pratique pourtant autorisée.
“Mark Zuckerberg et d’autres dirigeants d’entreprises doivent comprendre que ce qu’il se passe sur Facebook ne reste pas sur Facebook”, insiste Joyce Jones. “Ca nous accompagne à la maison, à l’épicerie, sur notre lieu de travail. Et cela affecte nos enfants”.
Pour Mark Potok, du Centre for the Analysis of the Radical Right, la suppression totale des contenus diffusés par des groupes extrémistes sur les réseaux sociaux est une chimère. “Ils en publient tellement chaque jour”, rappelle l’expert. “Je doute que ces entreprises puissent éradiquer leur influence”.
Partisan de Donald Trump, le père de Kristin Urquiza est mort en juin après avoir été contaminé par le nouveau coronavirus.
La page de commémoration ouverte par sa fille a été inondée de messages remettant en question l’efficacité des masques et des gestes barrières ou l’existence même de la maladie.
“Facebook n’a peut-être pas appuyé sur la détente, mais a laissé la voiture partir en tête-à-queue”, décrit Mme Urquiza, très remontée contre l’algorithme du réseau social, qui favorise, selon elle et de nombreux experts, les contenus mensongers et dangereux, plus susceptibles de retenir l’intérêt des utilisateurs.
L’ONG Avaaz milite pour une modification de l’algorithme afin de le rendre moins “toxique”, une politique plus rigoureuse de suppression des comptes et groupes nocifs, et des modérateurs de contenus plus nombreux et mieux traités.
Avec France 24