Google Translator a terminé ses dix ans d’activité en avril et beaucoup de choses ont changé en coulisses. Au début, le service ne dépendait que de la traduction automatique basée sur des phrases, qui était déjà plus efficace que la traduction mot à mot, comme le faisaient d’autres traducteurs plus simples. Aujourd’hui, Google met en œuvre sa technologie de traduction par réseau de neurones ? et la qualité est très proche de celle des traductions faites par l’homme.
En termes simples, la traduction automatique basée sur des phrases (PBMT) divise le texte que vous saisissez dans Google Translator en plusieurs mots et phrases, qui sont à leur tour traduits indépendamment les uns des autres. La traduction automatique neuronale (TNM) considère la phrase entière comme une seule unité de traduction.
Si vous êtes attentif, vous avez déjà compris quel est le gros problème du NMT : si je choisis de penser à une phrase avec trop de mots inhabituels, simplement pernicieux*, le réseau neuronal de Google Translator aurait du mal à l’interpréter. Les chercheurs ont essayé quelques solutions qui ont même fonctionné, mais n’étaient pas assez rapides pour travailler dans un service de la taille de Google Translator, qui traite de nombreuses requêtes par seconde.
Ils ont donc décidé de diviser les phrases contenant des mots rares en unités plus petites, ce qui permet d’obtenir un bon équilibre entre souplesse et rapidité de traduction, et d’éviter les traitements spécifiques pour les mots inconnus. Vous pouvez vérifier les formules, les graphiques et autres détails dans ce PDF, mais la représentation graphique du chinois vers l’anglais est la suivante (elle lit la phrase entière et calcule ensuite la pertinence de chaque partie, représentée par l'”Attention”, pour renvoyer le résultat en anglais) :
Le résultat est plus proche de l’homme, principalement en espagnol et en français. Les humains ont donné une note de 0 (une chose insignifiante) à 6 (traduction parfaite) pour les traductions faites par les humains, selon l’ancienne méthode (PBMT) et le réseau neuronal de Google. Du français à l’anglais et de l’anglais à l’espagnol, les notes attribuées sont extrêmement similaires ? et beaucoup plus élevées que celles de PBMT.
Le chinois est l’une des langues les plus complexes pour Google Translator (et celle qui a été la plus mal évaluée en matière de traductions), mais aussi l’une des langues qui bénéficient le plus de la nouvelle méthode. Ainsi, Google a annoncé mardi (27) que 100% des 18 millions de traductions quotidiennes ( !) du chinois vers l’anglais sont déjà réalisées avec NMT. Dans les mois à venir, Google prévoit d’étendre la technologie à d’autres paires de langues (plus de 10 000 combinaisons linguistiques sont prises en charge).
Plusieurs problèmes subsistent : Google affirme que le traducteur ?peut commettre des erreurs importantes qu’un traducteur humain ne commettrait jamais, comme perdre des mots et traduire incorrectement des prénoms ou des termes rares, et traduire des phrases isolées au lieu de tenir compte du contexte du paragraphe ou de la phrase ? Mais il semble que les progrès à venir soient très encourageants.
* Si vous ne comprenez pas, il se traduit en anglais, ce qui est beaucoup plus facile.
perlmOl 049 – L’avenir du travail
Avec l’arrivée des machines super intelligentes, le travail humain deviendra de plus en plus inutile. Et cela vaut aussi pour le travail créatif et intellectuel ! Ne croyez pas que nous soyons à l’abri du changement. Les algorithmes sont développés pour apprendre de manière similaire au cerveau humain. Donc si nous pouvons le faire, “ils le feront aussi”, mais ils le feront mieux et plus vite. À quoi ressemblera cet avenir ? Nous aurons une discussion à perlmOl !
