Les géants de l’Internet enchaînent les annonces sur les progrès de la traduction automatique. | Quentin Hugon / Le Monde

Facebook, TripAdvisor ou le navigateur Chrome, de Google, le proposent de plus en plus souvent aux internautes, quand ils ne l’imposent pas par défaut : « Voulez-vous traduire ce contenu en français ? » Si ces propositions sont plus fréquentes, c’est que le résultat s’est considérablement amélioré en une poignée d’années. Certes, les textes traduits sont toujours maladroits, rarement exempts d’erreurs grammaticales ou de contresens. Mais ils sont souvent de qualité suffisante pour permettre au lecteur de comprendre le propos ; à condition de ne pas entrer dans les détails ni de s’attacher aux nuances.

Un petit exploit, incomparable avec les technologies existant il y a seulement quatre ou cinq ans. Ces derniers mois, les annonces se sont enchaînées. La dernière en date est signée Facebook, qui a annoncé, mardi 9 mai, avoir trouvé un moyen de multiplier par neuf la vitesse de ces systèmes, sans perdre en qualité — un petit exploit. En novembre, c’est Google, qui, en grande pompe, annonçait une nouvelle version de son outil de traduction : « Avec cette mise à jour, Google Traduction progresse d’avantage en une fois qu’en dix ans », s’enorgueillit Google dans son communiqué. Quant à Microsoft, il ne cesse d’annoncer des améliorations à son outil de traduction en direct de la langue parlée, intégré à Skype depuis un an et demi.

Skype Translate demo at Microsoft's Worldwide Partner Conference 2014

« Il a appris une sorte d’espéranto tout seul »

La raison de ces récents progrès : les performances du deep learning, une méthode d’apprentissage automatique reposant sur des réseaux de neurones artificiels, qui a donné d’excellents résultats ces dernières années dans différents domaines de l’intelligence artificielle, comme la reconnaissance d’images.

Au départ, la traduction automatique reposait sur des règles inculquées à la machine, grammaticales par exemple, écrites à la main par des ingénieurs. Dans les années 1990, une autre méthode s’est imposée, basée sur l’analogie statistique : la machine compare de nombreux textes et leurs traductions, et en déduit la traduction la plus probable pour de nouveaux textes.

Mais dans les années 2010, l’utilisation de réseaux de neurones change la donne : « C’est une autre manière d’apprendre des modèles statistiques, explique au Monde François Yvon, directeur de recherche au CNRS et responsable du laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur (Limsi). On regarde des exemples de textes en français et en anglais, qu’on fait passer par ces machines à apprendre. On a trouvé que ça marchait suffisamment mieux pour faire des annonces triomphales. »

Tellement mieux que Google s’y est complètement converti. « Notre système précédent était très complexe et construit à la main », raconte au Monde Emmanuel Mogenet, directeur de Google Research Europe.

« Il était construit en plusieurs morceaux : un faisait de l’apprentissage automatique, un autre de l’analyse grammaticale, un autre des statistiques… C’était une sorte de système Frankenstein. Le gros pas en avant, c’est qu’on a décidé de jeter tout ça par la fenêtre et de construire un gros réseau de neurones entraîné dans lequel on injecte des mots en français d’un côté et il en ressort des mots en japonais de l’autre, avec zéro ingénierie traditionnelle au milieu. Ce n’est que de l’apprentissage automatique. »

Résultat : un système « nettement meilleur », assure le chercheur, établi à Zurich (Suisse). Et qui n’a pas manqué de surprendre ses créateurs eux-mêmes : « On lui a montré comment traduire certaines paires de langues, et quand il a eu fini d’apprendre, nous nous sommes aperçus qu’il était capable de passer d’une langue à une autre dont on ne lui avait jamais montré le pairage. » En clair, si les ingénieurs lui ont appris à traduire de l’anglais au japonais, et du français au japonais, la machine est capable de passer toute seule de l’anglais au français. « Il arrive donc à construire une espèce de représentation au centre, indépendante des langages. Il a appris une sorte d’espéranto. Tout seul. (…) Cette chose au milieu, on n’arrive pas encore très bien à la comprendre. »

Google Translate vs. “La Bamba”

« Je me méfie des annonces trop prometteuses »

Les résultats ont beau être impressionnants, François Yvon reste plus modéré concernant les nombreuses annonces des géants de l’Internet :

« Je me méfie des annonces trop prometteuses. En allemand, une langue difficile à traduire, on avait avant tout cela un score d’une qualité de 25 sur 100. Maintenant on est à 30. On a gagné 5 points en un an, là où avant on considérait qu’il fallait un an de travail pour gagner un point. La différence est donc très significative, mais il y a encore du chemin à parcourir avant d’arriver à 100. »

Les obstacles sont encore très nombreux pour y parvenir. A commencer par le fait que ces machines ne comprennent pas le monde qui les entoure et sont donc incapables de comprendre le texte qu’elles sont censées traduire. Si on parle du 11 septembre et de tours dans une même phrase, les humains comprendront automatiquement la référence et sauront traduire correctement le mot « tour », ce qui n’est pas le cas du programme. Doter les programmes de sens commun est l’un des grands défis actuels de l’intelligence artificielle, et l’un des plus difficiles à relever.

Un autre problème plus immédiat concerne le fonctionnement même de ces systèmes, comme l’explique François Yvon :

« Pour l’instant, on traduit des phrases toutes seules. Or un tas de phénomènes linguistiques s’étendent sur plusieurs phrases. “La voiture n’a pas démarré. Elle était en panne.” De l’anglais vers le français, on ne sait pas traduire le “it” en “il” ou “elle”. Car l’information peut remonter trois ou quatre phrases en arrière. C’est difficile, car il faut mémoriser des informations à grande distance. Mais la plupart d’entre elles n’ont aucun intérêt. »

Qui plus est, pour obtenir un niveau de traduction semblable à celui de professionnels, la machine doit être capable, tout au long d’un texte, de faire preuve de cohérence stylistique. Et si certaines traductions fonctionnent bien, comme le passage de l’anglais au français, d’autres sont bien plus précaires. Et pour cause : la masse de textes existant en deux langues, nécessaires pour entraîner la machine, n’est pas le même selon les paires. Si beaucoup de textes existent à la fois en anglais et en français, ils sont peut-être moins nombreux en coréen et en polonais.

Le type de texte traduit donne aussi des résultats plus ou moins convaincants. « Dans l’industrie, les brochures ou les comptes rendus d’assemblée générale fonctionnent très bien : ce sont des textes répétitifs, avec des phrases qu’on retrouve d’année en année », souligne M. Yvon. Ceux-ci sont nombreux et souvent traduits. « Mais quand il s’agit de traduire des SMS par exemple, ça fonctionne très mal. Personne ne les a jamais traduits ! Et il y a des jeux de mots, des fautes »

S’il pense que la traduction automatique atteindra, d’ici à dix ans, de très bons résultats pour certains usages, François Yvon remarque que « pour les romans ou les conversations, on en est encore très loin ».