Science

Stephen Hawking pense que l’intelligence artificielle peut anéantir l’humanité

Stephen Hawking est l’un des plus brillants scientifiques actuels, mais pas l’un des plus optimistes quant à l’avenir de l’humanité. Dans son dernier article, publié par The Independent en partenariat avec d’autres chercheurs dans le domaine, le physicien apporte un questionnement sur une menace potentielle “interne” (c’est-à-dire qui ne viendra pas d’une autre planète pour nous dominer et drainer nos ressources) qui n’est pas toujours prise très au sérieux : la intelligence artificielle.

L’article a été motivé par le film Transcendence, qui est sorti la semaine dernière et qui traite du sujet. Mais, selon la publication, le reportage donne l’impression que l’intelligence artificielle est quelque chose du genre science-fiction, alors qu’elle devrait être prise beaucoup plus au sérieux. “Réussir à créer une intelligence artificielle serait le plus grand événement de l’histoire de l’humanité. Malheureusement, elle pourrait aussi être la dernière, à moins que nous apprenions à en éviter les risques”, dit-il.

Les fruits de l’intelligence artificielle dont nous disposons jusqu’à présent sont relativement inoffensifs, comme un ordinateur qui bat des humains au jeu télévisé rique, des assistants personnels sur le smartphone et des voitures qui roulent seules. Mais des mesures sont déjà prises qui ne sont pas aussi sûres que celles de la direction militaire, avec des armes qui sélectionnent et éliminent les ennemis de façon autonome – une initiative qui a déjà été interrompue par l’ONU.

  Cette peau artificielle peut faire place à des prothèses sensibles au toucher

Malgré cela, avec le développement de l’intelligence artificielle, le physicien soutient qu’il n’y a aucun moyen de prédire comment elle peut être organisée. “On peut imaginer que cette technologie devienne plus intelligente que les marchés financiers, qu’elle invente plus de chercheurs humains, qu’elle manipule les leaders et qu’elle crée des armes que nous ne comprenons même pas”, explique l’article. “Si l’impact à court terme de l’intelligence artificielle dépend de qui la contrôle, à long terme, il dépendra de la possibilité de la contrôler”.

L’avertissement est très pessimiste, mais on peut comprendre que le point est que, plus que de développer l’intelligence artificielle pour ses “bonnes” raisons, il faut savoir faire face à ses dangers. Et, actuellement, c’est très négligé ; le physicien affirme que seules quatre institutions font ce type de recherche aujourd’hui.

Cela peut paraître alarmiste et même trop évident, mais quand l’une des plus grandes autorités scientifiques du monde décide d’aborder le sujet, il est bon d’être attentif. Et même si vous ne travaillez pas directement au développement de la technologie, la provocation se trouve à la fin de l’article : “nous devrions tous nous demander ce que nous pouvons faire maintenant pour augmenter les chances de maximiser les avantages et d’éviter les risques”.

  Oui, mais ce n'est pas le cas : une étude montre que l'effet placebo fonctionne également avec les jeux

L’article peut être lu, dans son intégralité et en anglais, ici.

A propos de l'auteur

Ronan

Le Breton de l'équipe ! Développeur back-end dans une startup française. Internet des objets, domotiques, mes sujets de prédilection sont vastes. #teamLinux sur PerlmOl

Laisser un commentaire