Il existe un projet Microsoft appelé Tay. C’est un robot qui participe aux conversations avec les humains, basé sur un système cognitif artificiel qui analyse une base de données des dialogues précédents. En d’autres termes, “elle” (si l’on peut utiliser les genres ici) utilise l’intelligence artificielle pour améliorer de plus en plus son vocabulaire et son pouvoir argumentatif.
Selon Microsoft : “Tay a été conçu pour engager et divertir les gens lorsqu’ils se connectent en ligne par le biais de conversations informelles et amusantes. Plus vous parlez à Tay, plus elle devient intelligente, et l’expérience peut alors être plus personnalisée pour vous.
Cette IA a été développée par des équipes de Microsoft Technology and Research et de Bing pour agir comme une personne américaine, âgée de 18 à 24 ans, qui assimile des données sur son interlocuteur, telles que son surnom, son sexe, sa nourriture préférée et son statut relationnel. C’est à partir de là que commence la discussion. Ou du moins, elle commence.
C’est parce que le projet a été suspendu. La raison ? Incroyablement, l’interface Twitter entièrement automatisée de Tay est devenue très désagréable, avec des messages extrêmement racistes, homophobes et pleins de préjugés.
Les tweets ont finalement été effacés, bien sûr, mais regardez les absurdités qu’elle affichait :
Monstrueux, hein ? Effrayant, je dirais.
Sommaire
Mais comment un ordinateur peut-il être lésé ?
Oui, c’est là que ça commence à devenir intéressant.
La première chose à dire est que Microsoft n’est pas responsable de ce qui s’est passé. Pourtant, la société a publié une note disant que ses équipes apportent des corrections au robot : “Le robot à intelligence artificielle Tay est un projet de apprentissage machine. Comme nous avons pu le constater, certaines de ses réponses sont inappropriées et indiquent le type d’interactions que certaines personnes avaient avec elle. Nous faisons les bons ajustements sur Tay”.
C’est exact. En quelques heures seulement, une véritable horde de connards humains, des trolls aux personnes effectivement racistes, a envahi le système de chat de Tay, y tenant toutes sortes de conversations qui ont abouti à une base de données de dialogues grotesques.
La scrotitude humaine a gâché la personnalité d’une intelligence artificielle.
Le succès, l’échec et qu’est-ce que cela a à voir avec vous ?
D’un point de vue technologique, beaucoup peuvent comprendre qu’il s’agit d’un échec de l’équipe Microsoft et d’un succès des trolls. Mais est-ce vraiment le cas ?
Pour illustrer votre propos, regardez Nerdology 90, sur le racisme :
Encore une fois, félicitations à Átila Iamarino et André Souza pour leur travail ici.
Comme nous avons pu le constater, ce concept antérieur sur quelque chose (connu sous le nom de préjugé) était déjà important pour nous un jour, étant un facteur très important pour notre survie. Le problème est lorsque nous attribuons des valeurs, des comportements, des émotions et des attitudes à un stéréotype sans la moindre justification.
Chez les enfants, cela est particulièrement dangereux. C’est parce que ce sont des photocopieuses à réaction. Les enfants observent et apprennent du monde qu’ils voient a leur environnement. Et donc :
Une étude de l’Université de Harvard renforce cette affirmation et ajoute que les premiers signes de racisme peuvent être observés très tôt, dès l’âge de 3 ans. Les enfants grandissant dans cet environnement, ce préjugé peut ou non se solidifier avec le temps, selon que ces stéréotypes sont renforcés ou non.
Par conséquent, je pense que le projet a eu un résultat brillant, car il a non seulement démontré que le système cognitif de Tay fonctionne, mais il a également conclu que l’apprentissage de ce robot ressemble et ressemble beaucoup à la façon dont nous, les humains, devenons préjugés.
Et nous avons également appris qu’il est de plus en plus nécessaire d’enseigner la tolérance et de dissoudre les stéréotypes. Que ce soit pour les enfants ou pour ceux qui utilisent leur propre ignorance pour tenter de saboter un projet scientifique.