Sécurité

Google aurait utilisé des sans-abri pour former à la reconnaissance faciale

Pixel 4 et Pixel 4 XL seront lancés avec un système de reconnaissance faciale qui promet d’être très précis. Mais toute cette sophistication peut avoir été basée sur une pratique très douteuse : une société engagée par Google aurait utilisé, sans consentement, des images de sans-abri, d’étudiants et de personnes à la peau sombre pour former à la technologie.

Il est important que l’entreprise dispose d’une banque d’images étendue et diversifiée pour éviter que sa technologie de reconnaissance faciale ne donne l’impression d’avoir été victime de discrimination raciale, par exemple.

Mais il est également important que les procédures de collecte d’images respectent des principes éthiques et moraux. C’est là que Google a peut-être échoué, même involontairement : une constatation faite par le New York Daily News indique que Randstad, l’agence engagée pour enregistrer les visages, n’aurait pas informé les participants de l’objectif de la procédure.

Le rapport indique que Randstad a engagé des travailleurs temporaires pour approcher les sans-abri d’Atlanta, des étudiants de plusieurs universités, des participants à un festival à Los Angeles, entre autres, pour trouver des volontaires prêts à participer à une enquête.

  Google met à jour l'interface sur Android pour que vous puissiez contrôler votre compte

Jusque-là, rien d’inhabituel. Cependant, plusieurs travailleurs ont déclaré au New York Daily News qu’ils avaient pour instruction d’approcher principalement des personnes à la peau sombre et de ne pas dire aux participants que leur visage serait enregistré.

Pour convaincre les personnes approchées, les participants ont dû utiliser des arguments tels que “jouer avec le téléphone pendant quelques minutes et obtenir une carte cadeau” et “tester cette application et obtenir 5 €”. Certains ont également été chargés de dire que le but de l’approche était de tester une application selfies similaire à Snapchat.

Le plus important était de ne pas révéler que le visage du participant était enregistré. Si l’un d’entre eux était suspect, il fallait nier que l’enregistrement était réalisé et, si tel était le cas, accélérer la conversation avant que la personne ne refuse d’y participer.

Les travailleurs auraient également reçu des instructions pour approcher les sans-abri car “ils sont moins susceptibles de dire quoi que ce soit aux médias”. Quant aux étudiants, ils auraient été incités à les approcher car, comme ils ont généralement un budget serré, ils ont tendance à dépasser plus facilement les participations à la recherche rémunérées.

  Google Images affichera des informations supplémentaires sur les photos

En juillet, Google a confirmé à The Verge qu’il effectuait des “recherches sur le terrain” pour scanner les visages afin de former sa technologie de reconnaissance faciale. L’entreprise affirme également que les visages scannés reçoivent une identité abstraite et ne sont pas liés aux courriels que les participants rapportent au moment de l’approche.

Selon Google, les données faciales sont conservées pendant 18 mois, mais tout participant peut demander que les informations soient supprimées avant cela.

Le problème ici est le suivant : si les gens ne savaient pas que leur visage était numérisé – beaucoup n’auraient même pas réalisé qu’il y avait un formulaire de consentement – comment peuvent-ils demander que les données soient effacées ?

Pour l’instant, Google informe qu’il prend les rapports contre Randstad au sérieux et qu’il va enquêter. La société a également expliqué que les approches, si elles sont confirmées, violent ses conditions de recherche avec des volontaires.

On ne sait toutefois pas quelles mesures l’entreprise prendra si les irrégularités sont avérées.

  Les sites web les plus sûrs, avec une authentification en deux étapes et une protection contre la force brute

A propos de l'auteur

Ronan

Le Breton de l'équipe ! Développeur back-end dans une startup française. Internet des objets, domotiques, mes sujets de prédilection sont vastes. #teamLinux sur PerlmOl

Laisser un commentaire