Internet

Google annonce des mesures contre les vidéos extrémistes sur YouTube

Le boycott dont Google a souffert en diffusant soi-disant des annonces dans des vidéos extrêmes sur YouTube semble avoir eu un effet. Dans une lettre publiée le week-end dernier, la société s’est engagée à prendre quatre mesures importantes pour empêcher la publication et le partage de ce type de contenu dans son service vidéo.

Kent Walker, l’avocat général de Google, est celui qui signe le document. Le texte a été publié sur le blog officiel de l’entreprise, mais il est d’abord paru dans le Financial Times. La publication de la lettre dans un grand média est probablement une façon pour Google de dire que les mesures nouvellement annoncées ne sont pas des promesses en l’air.

Qu’est-ce que c’est ? La première est l’utilisation la plus intense de la technologie. À partir des modèles d’analyse vidéo et de l’apprentissage machine, le système de modération devrait différencier les contenus qui montrent des actions violentes dans le cadre d’un reportage télévisé (vidéo légitime, donc), par exemple, de ceux qui promeuvent efficacement le terrorisme, la haine, etc.

  Google Chrome améliore le mode nuit dans les tests de Windows

Mais la technologie n’atteint pas 100 % du temps. En fait, les analyses qui rendront le système plus précis peuvent prendre beaucoup de temps. C’est pourquoi la deuxième mesure annoncée est une solution en chair et en os : les équipes de révision des contenus de YouTube “Trusted Flagger” seront élargies.

Ce programme a vu le jour en 2012 après que Google ait réalisé que de nombreuses personnes signalaient activement les contenus illégaux avec un taux de précision élevé. Si oui, pourquoi ne pas travailler avec eux ? Actuellement, le taux de réussite (c’est-à-dire la quantité de vidéos marquées comme inappropriées qui le sont) de ces équipes est supérieur à 90 %. Pour développer le programme Trusted Flagger, Google ajoutera 50 ONG aux 63 qui participent déjà au programme.

La troisième mesure est la limitation des contenus douteux. Lorsqu’une vidéo ne viole pas clairement les politiques de YouTube, mais présente un certain niveau de nocivité, pour ainsi dire (vidéo religieuse sur le ton de la suprématie, par exemple), l’utilisateur responsable ne sera plus payé. En outre, les commentaires et les fonctions de partage de la vidéo seront désactivés. L’idée est de limiter la portée de ce type de contenu.

  Le co-fondateur de WhatsApp vous suggère à nouveau de supprimer Facebook

Dans la quatrième mesure, Google donnera plus de pouvoir à Creators for Change. Il s’agit ici d’utiliser le potentiel de la publicité en ligne pour identifier les utilisateurs qui viennent filmer des contenus extrémistes et les rediriger vers des vidéos contre la haine et la radicalisation. La société espère ainsi rendre plus difficile le recrutement des groupes terroristes.

La lutte contre l’extrémisme sur Internet étant une tâche délicate, Google a également annoncé sa décision de collaborer avec d’autres géants de l’industrie – dont Facebook, Microsoft et Twitter – pour combattre ce problème. Un forum international devrait être créé pour permettre le partage des technologies développées à cette fin, y compris avec les petites entreprises.

A propos de l'auteur

Zineb

Enseignante en lycée, je m'intéresse à tout ce qui touche aux nouvelles technologies. #teamMac sur PerlmOl (je ne me sépare d'ailleurs jamais non plus de mon Iphone).

Laisser un commentaire