Internet

Un document interne révèle les mesures prises par Facebook pour lutter contre les discours de haine

L’année dernière, Facebook a intensifié ses efforts pour identifier et supprimer les contenus qui encouragent les discours haineux, notamment le racisme, la xénophobie et l’apologie du nazisme.

Le réseau social a renouvelé la formation de ses modérateurs de contenu après la marche de Charlottesville (USA), qui a attiré des centaines de néo-nazis. C’est ce que Motherboard a découvert après avoir obtenu des documents internes de Facebook.

“De récents incidents aux États-Unis (par exemple à Charlottesville) ont montré qu’il y a potentiellement une confusion sur nos politiques pour les organisations qui promeuvent le discours de haine”, déclare un document des modérateurs créé peu après la manifestation.

Depuis lors, la formation a été mise à jour pour inclure de nouveaux exemples d’incitation à la haine. Il s’agit notamment de comparer les Mexicains à des créatures ressemblant à des vers, d’appeler les musulmans des porcs et d’utiliser “it” (pronom utilisé pour les objets et les animaux) pour les personnes transgenres.

  Facebook crée des suggestions d'événements pour vous faire sortir davantage

Facebook fait des distinctions entre les suprémacistes blancs, les nationalistes et les séparatistes. Le réseau social ne permet pas “l’éloge, le soutien ou la représentation” de la suprématie blanche en tant qu’idéologie. En d’autres termes, des termes tels que “se joindre à la prochaine marche de la suprématie blanche” seraient supprimés.

Cependant, les modérateurs ont pour consigne de ne pas supprimer des messages tels que “le nationalisme blanc est la seule solution” ou “les États-Unis devraient être un pays exclusivement blanc”.

Il existe également une règle spécifique pour Pepe The Frog, un mème qui “a été approuvé par de nombreux groupes pour transmettre des messages de haine”, selon Facebook. Au fil des ans, le dessin d’une grenouille est devenu un symbole antisémite.

Le matériel de formation fournit deux exemples : le premier a une image standard de Pepe ; le second montre la grenouille vêtue d’un uniforme SS – organisation paramilitaire liée à Adolf Hitler – devant un camp de concentration. Dans ce cas, le modérateur ne doit supprimer que la deuxième image.

  Comment puis-je voir un calendrier Facebook si j'ai été bloqué ?

Cependant, Facebook diffuse tout autre personnage de dessin animé ou de jeu vidéo, même pour des discours de haine. Le matériel comprend un exemple d’Homer Simpson avec une croix gammée sur la tête ; un poste comme celui-ci ne serait pas retiré.

Facebook classe les groupes et les individus haineux en fonction de signaux forts, moyens et faibles. Un signal fort est la participation à des organisations telles que le Ku Klux Klan (KKK), les United Klans of America ou les Aryan Nations. Un signe moyen consiste à utiliser le nom ou le symbole d’un groupe organisé. Et un signe faible est de participer à des marches où les groupes haineux sont présents ? comme ce fut le cas à Charlottesville.

” Nos politiques contre les groupes de haine organisés sont durables et explicites ? nous ne permettons pas à ces groupes de maintenir une présence sur Facebook parce que nous ne voulons pas être une plateforme de haine. En utilisant une combinaison de technologies et de personnes, nous travaillons de manière agressive pour éradiquer les contenus extrêmes de notre plateforme”, déclare Facebook dans une déclaration.

  Facebook s'aventure dans le secteur de la reconnaissance vocale

Au cours du premier trimestre 2018, Facebook a éliminé 2,5 millions de messages contenant des discours de haine. Le filtrage est effectué à l’aide de l’intelligence artificielle, mais seulement 38% de ce total ont été automatiquement supprimés.

A propos de l'auteur

Ronan

Le Breton de l'équipe ! Développeur back-end dans une startup française. Internet des objets, domotiques, mes sujets de prédilection sont vastes. #teamLinux sur PerlmOl

Laisser un commentaire