Sécurité

Comment Facebook décide du contenu à supprimer ou non

Facebook compte 4 500 employés qui se consacrent exclusivement à la révision des contenus publiés sur le réseau social. Ce nombre devrait passer à 7 500 d’ici la fin de l’année. En dehors de ces informations, la société n’a jamais révélé beaucoup de détails sur le sujet. Cependant, des documents confidentiels obtenus par The Guardian montrent comment ce travail est effectué et donnent une idée du défi que représente pour Facebook la prévention de la prolifération de contenus préjudiciables.

C’est un défi car, pour commencer, le réseau social compte environ 2 milliards de comptes ? c’est beaucoup de gens qui publient et partagent du contenu chaque seconde. En outre, l’entreprise doit constamment faire face au fait qu’il est souvent difficile de séparer la bonne modération d’un acte de censure erroné.

Bloquer ou ne pas bloquer ?

C’est pourquoi il y a tant de lignes directrices. Ils aident les modérateurs à prendre des décisions sur les contenus qui encouragent la violence, la pornographie, le racisme, les discours de haine, le terrorisme, etc… Il existe même des directives spécifiques sur le cannibalisme.

Les lignes directrices sont utiles, mais elles peuvent aussi parfois gêner. Il n’est pas rare qu’un modérateur se plaigne d’incohérences ou présente des interprétations divergentes pour certaines situations.

Les lignes directrices relatives aux messages exprimant la violence sont un exemple de confusion possible. Les lignes directrices expliquent que de nombreux utilisateurs peuvent utiliser des mots qui motivent l’agressivité comme moyen de transmettre des sentiments perturbateurs, et ne sont donc pas un type de contenu qui doit être traité comme une menace potentielle.

  Exclusif : UOL a une grave faille de sécurité dans le courrier électronique depuis 2018

Mais il y a des exceptions. Vous pouvez faire des commentaires du genre “j’espère qu’ils vont mourir” ou “pour leur briser le cou (…), serrer fort (…)” si les personnes ou les groupes ne sont pas clairement identifiés comme une cible. Mais écrire “laisser quelqu’un tirer sur Trump”, par exemple, peut entraîner des problèmes ? en tant que plus haute autorité d’une nation, toute menace envers Donald Trump doit être traitée avec une rigueur absolue, aussi minime soit-elle.

Des cas comme celui-ci sont même faciles à différencier. D’autres, en revanche, sont très délicates. Facebook prétend que certaines vidéos de morts violentes peuvent être conservées sur le réseau social parce qu’elles permettent de sensibiliser les gens aux problèmes mentaux, par exemple. Mais comment différencier correctement une scène qui exprime la haine d’une autre qui a un problème personnel en arrière-plan ?

Autre exemple d’orientation qui laisse place à l’interrogation : selon les documents, les images d’enfants souffrant de violences physiques sont autorisées, sauf lorsqu’elles sont célébrées ou accompagnées d’un élément sadique ; des scènes d’animaux souffrant de mauvais traitements peuvent également être publiées, pour autant que les images ne soient pas “extrêmement dérangeantes” ou n’encouragent pas cette pratique.

Il existe un nombre important d’émissions en direct dans lesquelles l’utilisateur – le plus souvent un adolescent ou un jeune adulte – pratique la violence sur lui-même, en particulier l’automutilation. Facebook conseille aux modérateurs de ne pas bloquer ce type de contenu afin de ne pas laisser la personne, déjà très stressée, encore plus bouleversée.

  Microsoft met à jour Windows Defender pour supprimer les logiciels malveillants préinstallés sur les PC Lenovo

Le contenu sexuel est une catégorie particulièrement complexe. Les images sexuelles explicites sont évidemment interdites. Toutefois, les manifestations modérées de sexualité, les vêtements provocateurs et même les activités sexuelles entre adultes avec des détails “pixélisés” sont autorisés. L’art “fait main” (comme les peintures et les sculptures) mettant en valeur la nudité est également diffusé ; mais si l’art est fait numériquement, il ne l’est pas.

Le langage sexualisé est également autorisé, mais le message doit être interdit s’il exprime des détails. Par exemple, vous pouvez dire à quelqu’un que vous voulez “faire cela” mais vous ne pouvez pas exprimer où ou comment. C’est déroutant, n’est-ce pas ? C’est pourquoi les directives standard prévoient la suppression si le contenu est signalé, même si le message n’est pas détaillé.

Autre point de confusion : les images d’avortement sont autorisées, à moins qu’elles ne montrent de la nudité.

La modération est nécessaire, mais c’est compliqué

Bien que Facebook n’ait pas confirmé ou nié la légitimité des documents ayant fait l’objet d’une fuite, Monika Bickert, responsable de la politique mondiale de l’entreprise, a souligné au Guardian qu’il est difficile pour le service de parvenir à un consensus sur ce qui doit être bloqué ou non.

  Facebook crée une option de déconnexion à distance

C’est un grand défi, en fait, car de nombreux cas impliquent des aspects culturels et sociaux qui varient d’un pays à l’autre. Par exemple, les images qui montrent des gens s’embrassant sont bien tolérées dans de nombreux endroits, mais dans d’autres, elles sont aussi libidineuses que les actes sexuels eux-mêmes.

Facebook doit encore faire face à un autre problème courant : outre la difficulté qu’ont les modérateurs à décider de retirer ou non un post particulier du réseau social, il n’est pas rare qu’il y ait des problèmes émotionnels dans les équipes, qu’il s’agisse du stress des décisions ou du choc causé par certains contenus.

Malgré les difficultés, Bickert assure que Facebook reste engagé à maintenir la sécurité du réseau social. En plus d’augmenter l’équipe de modération, la société développe des outils qui promettent d’être plus efficaces pour filtrer le contenu, ainsi que la création de moyens qui permettront à l’utilisateur de signaler plus facilement les posts dangereux.

Ce n’est pas comme si Facebook avait le choix. La société elle-même reconnaît qu’elle est incapable de contrôler tout ce qui apparaît sur le service. La solution consiste donc à chercher des moyens d’atténuer le problème. Mais comme les réponses palliatives ne sont pas des solutions, il est certain que le sujet suscitera encore beaucoup de controverses.

A propos de l'auteur

Bernard

Actuellement responsable informatique dans une PME, je bosse dans le domaine depuis une vingtaine d'année maintenant. Fan inconditionnel de DBZ, et de la triologie Die Hard. #teamWindows sur Perlmol !

Laisser un commentaire