Internet

Que se passe-t-il lorsque les robots de Wikipédia décident de se battre entre eux

Les bots jouent un rôle important dans l’écosystème de Wikipédia : ce sont des codes qui permettent d’effectuer de petits ajustements et d’automatiser des processus fastidieux, tels que l’inversion des actes de vandalisme. Cependant, même avec les meilleures intentions, ils ne se comportent pas toujours correctement. Que se passe-t-il quand un robot se bat avec un autre ?

Selon une nouvelle étude de PLOS ONE, c’est quelque chose qui arrive souvent. Dans la Wikipédia portugaise, les robots ont inversé le travail d’un autre robot en moyenne 185 fois sur une décennie, contre une moyenne de 2,3 fois pour les éditeurs humains.

L’étude a examiné Wikipédia en treize langues différentes et cite certains articles où les “combats de robots” ont eu lieu le plus souvent. L’une est la page sur l’acteur et homme politique Arnold Schwarzenegger : alors qu’un robot a mis le lien vers la version en hindi (la langue principale de l’Inde), l’autre a insisté pour le supprimer. Ainsi, 69 octets ont été constamment insérés et effacés, jusqu’à ce que l’un d’entre eux se soit arrêté :

  Pourquoi Wikipedia a perdu un demi-milliard de visites au cours des derniers mois

Cela s’est également produit dans l’article sur le physicien Niels Bohr : alors que LaaknorBot a inséré le lien vers une langue obscure (wolof), Xqbot s’y est rendu et l’a retiré. Le conflit a duré des semaines, jusqu’à ce qu’un troisième bot entre dans l’histoire et rende les changements permanents.

De plus, a Wired mentionne le combat entre deux robots qui s’occupent de rediriger les liens. En trois ans, Scepbot a inversé 1 031 fois les éditions de RussBot, alors qu’il a retourné la situation 906 fois.

Cela s’explique, bien sûr, par le fait qu’un bot est fait pour effectuer des tâches simples, et non pour décider si un changement dans un article est valable ou pertinent. Et contrairement aux humains, ces morceaux de code ne se fatiguent pas de revenir sur les modifications – en fait, cela fait partie de leur essence.

Il y a environ quatre-vingts robots Wikipédia actifs en français, et près de deux cents dans la version anglaise. Le co-auteur de l’étude, Taha Yasseri, de l’université d’Oxford, explique à Wired que les robots réalisent de 10 à 50 % de toutes les éditions, selon la langue.

  Tout ce que vous devez savoir sur le robot aspirateur

Pourtant, Wikipédia est loin de devenir un chaos généré par l’intelligence artificielle : elle dispose d’un processus d’approbation des robots pour détecter les éventuels conflits, et ses créateurs gardent un œil sur les comportements anormaux.

Sur Wikipédia, il y a des robots d’analyse qui identifient le vandalisme ou les violations de droits d’auteur ; des robots d’édition pour annuler le vandalisme, imposer des interdictions, corriger l’orthographe et créer des liens entre les langues ; et même des services avancés tels que ORES (Objective Review Evaluation Service), qui utilise l’apprentissage automatique pour identifier si une édition est un changement bien intentionné ou s’il s’agit de vandalisme.

L’étude a analysé les données entre 2001 – début de Wikipédia – et 2011. On considère qu’il s’agit de la “première génération” de robots ; dans les années qui ont suivi, Wikidata (base de données unifiée entre plusieurs langues) a repris certaines des tâches précédemment effectuées par l’encyclopédie. Vous pouvez consulter l’étude complète, en anglais, ici.

  Firefox est toujours compatible avec Windows XP et Vista (mais cela prendra fin en 2017)

A propos de l'auteur

Zineb

Enseignante en lycée, je m'intéresse à tout ce qui touche aux nouvelles technologies. #teamMac sur PerlmOl (je ne me sépare d'ailleurs jamais non plus de mon Iphone).

Laisser un commentaire