Sécurité

Facebook pour lutter contre les fausses nouvelles avec des liens vers d’autres points de vue

La lutte de Facebook contre les fausses nouvelles se poursuit. Comme la société est en train de le mettre en œuvre, elle fera apparaître des liens vers différents arguments juste en dessous des contenus suspects dans une partie appelée “articles connexes” (traduction libre). C’est presque comme si le service avait choisi de rester en haut du mur, mais qu’il offrait des options à l’utilisateur pour qu’il décide ce qu’il doit croire.

Bien que la ressource soit simple et apparemment de faible impact, elle illustre la complexité du sujet. Facebook compte au moins 4 500 employés qui se consacrent à la révision du contenu publié sur le réseau social. Ce nombre devrait atteindre 7 500 d’ici la fin de l’année. Le problème est que cette équipe peut échouer : au lieu de faux contenus ou de contenus préjudiciables, les messages légitimes peuvent être supprimés et caractériser la censure. Les rapports sur de telles situations ne manquent pas.

  Facebook contourne intelligemment le blocage de Google

Des documents internes obtenus par The Guardian en mai montrent que Facebook dispose d’un ensemble très large de lignes directrices pour déterminer ce qui doit et ne doit pas être éliminé dans les tâches de modération. Même en suivant l’ensemble du protocole, quelqu’un peut finir par éliminer un lien de manière injuste parce qu’il croit que le matériel est nuisible alors qu’en fait, son jugement a été influencé par son désaccord avec la question en cause.

En plus d’un mauvais jugement dans la modération, l’analyse des documents internes de Facebook indique qu’il y a des incohérences dans les paramètres. De graves incohérences : selon une étude de ProPublica, il existe des combinaisons de paramètres qui pourraient, par exemple, faire en sorte qu’un poste qui s’en prend aux enfants noirs soit considéré comme légitime parce que ce groupe n’entre pas dans les catégories protégées.

Les articles connexes ne peuvent rien faire ou presque pour lutter explicitement contre les contenus préjudiciables, tels que les publications montrant des images d’une violence extrême. Mais ils peuvent aider Facebook à empêcher que de fausses nouvelles ne se répandent rapidement sur le réseau social en raison du ton alarmiste ou du sentiment d’indignation que ce contenu provoque.

  Un groupe de hackers publie un million d'identifiants de dispositifs iOS suivis par le FBI

L’équipe de modération continuera bien sûr à travailler. Mais comme la quantité de messages partagés sur Facebook est immense, les articles connexes devraient empêcher les fausses nouvelles de se répandre rapidement avant qu’un contrôle rigoureux ne soit effectué.

Du moins, c’est ce que Facebook attend. Selon Tessa Lyons, responsable de l’intégrité des produits sur Facebook, les commentaires recueillis lors de l’essai d’articles connexes ont montré que la nouvelle approche a permis à de nombreuses personnes de mieux comprendre les questions en jeu, et qu’elles ont donc pris davantage soin de ce qu’elles pouvaient partager.

Les articles suggérés ne sont pas des nouvelles sur Facebook. Cette fonction existe au moins depuis 2013. La différence est que désormais, le contenu indiqué sera sélectionné sur la base de critères plus sophistiqués et de nouvelles vérifiées (qui nient l’original avec des arguments cohérents, par exemple) afin qu’il y ait, en fait, un contexte.

Et si une autre nouvelle bidon apparaissait dans les suggestions ? Le risque existe, mais Facebook entend le combattre en utilisant l’intelligence artificielle et en disqualifiant les messages qui reçoivent de nombreux commentaires controversés ou qui sont signalés comme faux.

  La violation de la sécurité touche 100 % des utilisateurs d'Internet Explorer

Dans un premier temps, la ressource sera exploitée en Allemagne, aux États-Unis, en France et aux Pays-Bas.

A propos de l'auteur

Ronan

Le Breton de l'équipe ! Développeur back-end dans une startup française. Internet des objets, domotiques, mes sujets de prédilection sont vastes. #teamLinux sur PerlmOl

Laisser un commentaire