Internet

Facebook explique comment décider de retirer ou non un contenu de l’antenne

Les règles de Facebook pour supprimer quelque chose qui a été posté par les utilisateurs n’ont jamais été très bien expliquées. En général, la plateforme a publié des règles sans autant de détails, ce qui les a rendues très contestables. Pensant offrir plus de transparence, le réseau social a publié un document contenant une série de lignes directrices.

Le document sert à présenter les normes communautaires établies par Facebook. Il explique comment la plateforme gère les postes qui impliquent, par exemple, des brimades, des menaces de violence, de l’automutilation et de la nudité.

“Nous savons qu’il y aura toujours des gens qui essaieront de publier des contenus ou de se comporter de manière abusive. C’est notre façon de dire que ces choses ne sont pas tolérées”, a déclaré Monika Bickert, directrice de la gestion de la politique mondiale pour Facebook.

Les normes sont valables pour tous les pays où Facebook est présent. Il peut être mis à jour à tout moment s’il est nécessaire de fournir plus d’informations sur la manière de faire face à une nouvelle menace. Pour rendre le matériel plus accessible, la plateforme l’a traduit dans plus de 40 langues.

  Les DM de Twitter pourraient facilement être volés, selon un expert en sécurité

Les lignes directrices sont également valables pour d’autres services Facebook. Dans ce cas, les règles de chaque plate-forme peuvent prévaloir. Dans Instagram, par exemple, les utilisateurs ne sont pas tenus d’utiliser leur vrai nom.

Pour faciliter le travail, Facebook a déclaré que d’ici la fin de l’année, il doublera la taille de son équipe d’examen de ce contenu, qui compte actuellement 10 000 personnes.

Des changements ont également été apportés pour permettre de poser des questions sur la décision de Facebook de retirer un post. Le réseau social est souvent critiqué pour avoir supprimé des photos qu’il ne devrait pas, comme les mères qui allaitent leurs enfants, par exemple. Désormais, les utilisateurs pourront demander la révision de la décision.

La plate-forme dispose de 24 heures pour décider si l’action sera maintenue ou s’il y a vraiment eu une erreur. Si c’était une erreur, le contenu apparaîtra à nouveau dans le profil de la personne qui l’a publié.

  Netflix lance un abonnement moins cher uniquement via le mobile en Malaisie

D’ici la fin de l’année, l’examen devrait également être proposé si un poste que vous avez signalé n’a pas quitté l’antenne. Dans ce cas, le réseau social aura le temps de réévaluer s’il se conforme ou non à votre demande de retrait du contenu.

A propos de l'auteur

Bernard

Actuellement responsable informatique dans une PME, je bosse dans le domaine depuis une vingtaine d'année maintenant. Fan inconditionnel de DBZ, et de la triologie Die Hard. #teamWindows sur Perlmol !

Laisser un commentaire