Logiciels

Comment et quel type de contenu préjudiciable est retiré de YouTube ?

YouTube dispose de mécanismes permettant d’identifier et de supprimer les contenus préjudiciables de la plateforme, ce qui a été fait depuis le début mais a été considérablement amélioré ces dernières années. L’intelligence artificielle, les modérateurs humains et la collaboration avec d’autres entreprises sont quelques-unes des mesures prises pour maintenir un environnement sain.

Qu’est-ce que YouTube considère comme un contenu préjudiciable ?

En septembre 2019, YouTube a mis en place de nouvelles mesures pour améliorer la plateforme, qu’il a appelée “Les 4 R (erres) de la responsabilité”. Chaque “erre” est un principe de base pour maintenir un service sain, exempt de contenu nuisible et d’utilisateurs toxiques, tout en favorisant et en encourageant les créateurs qui ajoutent à l’écosystème.

La méthodologie des “erres” s’est inspirée de la méthode 5S de la qualité et, jusqu’à présent, seule la première, la “Remove”, a été détaillée. Il régit toutes les directives relatives à l’analyse du contenu, à l’identification des vidéos inappropriées et à leur retrait ultérieur.

YouTube ne tolère pas les vidéos qui enfreignent ses conditions d’utilisation, qui sont les suivantes

  Apple lance la bêta publique de Big Sur MacOS

Défis dangereux : comme le Soap Challenge et autres, qui présentent un risque de blessure ;

empreintes dangereuses ou menaçantes : empreintes dans lesquelles les victimes pensent être soumises à un préjudice ou qui génèrent un stress émotionnel ;

Instructions pour tuer ou blesser : comme des tutoriels sur les bombes ou des instructions sur la façon de tenter de mettre fin à la vie d’autres personnes ;

Excuses aux drogues : avec consommation ou encouragement de drogues illicites. Les drogues légitimes, telles que l’alcool ou les cigarettes, sont tolérées en fonction du contexte ;

troubles alimentaires : de personnes souffrant de troubles tels que l’anorexie ou la boulimie, entre autres, où l’éleveur encourage la perte de poids de manière malsaine. Les vidéos de troubles d’un point de vue médical (pour inciter à se faire soigner) sont autorisées ;

Promotion d’événements violents : qui encouragent ou font l’éloge d’événements violents, comme les fusillades dans les écoles ;

Instructions sur les pratiques criminelles : qui enseignent comment voler de l’argent/des objets ou pirater les systèmes de sécurité et envoyer des logiciels malveillants aux utilisateurs (phishing) ;

  Comment télécharger lame_enc.dll et enregistrer des fichiers MP3 dans Audacity

Promotions de cures miraculeuses : qui promeuvent des substances, des traitements ou des séances qui promettent des cures non prouvées par la médecine.

YouTube lutte également avec acharnement contre les vidéos sur les théories du complot, ce qui a déjà fait que de grandes chaînes, comme l’infâme Guerre des infos d’Alex Jones, ont été classées à partir de la plateforme.

Comment les vidéos inappropriées sont-elles retirées de YouTube ?

Selon YouTube, la procédure d’identification et de suppression des contenus préjudiciables est en place depuis la création de la plateforme en 2005, mais elle a été renforcée depuis 2016.

La plateforme a mis en place des solutions telles que l’apprentissage automatique, des drapeaux fournis aux ONG, des équipes d’examinateurs qui surveillent les publications, des mesures visant à empêcher les mineurs de diffuser en streaming sans la présence d’adultes (afin d’inhiber les spectateurs toxiques), en excluant la suggestion de sujets pour adultes dans les récits familiaux, etc.

YouTube travaille en étroite collaboration avec les créateurs et les évaluateurs pour identifier correctement une vidéo comme étant inappropriée et la signaler pour qu’elle soit supprimée afin de réduire les faux positifs et finir par supprimer les messages légitimes, tout en punissant indûment les utilisateurs lorsque des contenus toxiques passent au crible.

  Voir le déblocage de Google Glass et son fonctionnement dans la pratique

C’est là qu’intervient l’une des parties les plus difficiles, qui consiste à identifier les discours de haine. Le grand problème des algorithmes est de savoir comment distinguer l’utilisation d’un mot en fonction du contexte, afin qu’une vidéo légitime, qui utilise une certaine expression, puisse rester en service. Tandis qu’un autre, qui utilisait la même expression mais avec une connotation haineuse, est supprimé dès qu’il est identifié.

Selon YouTube, le service collabore depuis 2017 avec plusieurs utilisateurs et entreprises technologiques pour l’identification correcte des contenus préjudiciables par le biais d’algorithmes. L’entreprise contribue avec des bases de données pour augmenter l’identification positive, tout en réduisant les erreurs. Selon les données officielles, 87 % des 9 millions de vidéos retirées au cours du deuxième trimestre 2019 ont été initialement signalées par des algorithmes.

A propos de l'auteur

Ronan

Le Breton de l'équipe ! Développeur back-end dans une startup française. Internet des objets, domotiques, mes sujets de prédilection sont vastes. #teamLinux sur PerlmOl

Laisser un commentaire