Le programme d'intelligence artificielle se "nourrit" de romans à l'eau de rose pour mieux utiliser le langage. | Quentin Hugon/Pixels

Comment remédier à la froideur des machines et leur donner un semblant d’humanité ? Les chercheurs en intelligence artificielle ont trouvé un début de réponse : la littérature. La semaine dernière, des chercheurs de Google ont expliqué au site américain Buzzfeed qu’ils enseignaient le langage à un de leurs programmes en se fondant… sur des romans à l’eau de rose. Si ce type de littérature est généralement peu considéré, l’entreprise américaine lui a trouvé une valeur inestimable.

Les programmes d’apprentissage des machines ont besoin d’ingérer d’importantes masses de données pour en extraire des connaissances. Ceux qui sont censés apprendre le langage doivent donc ingurgiter énormément de textes. Mais comment les choisir ? Aujourd’hui, les programmes d’intelligence artificielle capables de mener, dans une certaine mesure, une conversation, se montrent généralement trop factuels, trop froids dans leur discours. Comme la plupart des chatbots (robots conversationnels) ou assistants personnels tels Siri, ils manquent de fluidité et de nuance dans leur façon d’utiliser le langage.

« Ces romans répètent les mêmes idées »

Google a donc décidé d’améliorer une de ses machines en la « nourrissant » de plus de 2 800 romans d’amour. Pourquoi avoir choisi ce style en particulier ? « C’est parce que les mêmes idées sont exprimées à plusieurs reprises de différentes manières », explique au Monde un représentant de Google :

« Les intrigues sont assez convenues, ce qui signifie que ces romans répètent les mêmes idées plusieurs fois. C’est très utile pour un système d’apprentissage des machines, qui apprend mieux quand il dispose de plusieurs exemples. »

En ingurgitant le même scénario plus de deux mille fois, raconté avec des mots, des formules et des phrases différents, la machine devrait ainsi développer un langage plus nuancé, parient les chercheurs. « C’est un nouveau moyen de générer des phrases qui ont l’air plus naturelles – et qui à terme pourrait faciliter l’interaction avec de nombreux produits de Google. Ils pourraient s’exprimer de façon moins robotique et être plus faciles à comprendre. »

Cette équipe aurait aussi pu utiliser d’autres types de littérature, comme celle destinée aux enfants, qui pourrait paraître idéale pour enseigner la langue. Mais celle-ci n’est pas aussi riche en vocabulaire.

« Pas de réponses torrides dans nos applis ! »

Beaucoup de chercheurs se fondent également sur des dialogues de films et de séries pour apprendre aux machines à parler de la façon la plus humaine possible. Récemment, un chatbot s’est par exemple inspiré du script de la série Silicon Valley, « aspirant » au passage la personnalité de ses différents acteurs – en réalité, leur façon de parler. Les programmes d’intelligence artificielle de Google vont-ils donc se mettre à s’exprimer comme des personnages de romans Harlequin ? « Nous utilisons les romans d’amour juste pour ce projet de recherche », précise le représentant de Google, « cela n’apparaîtra pas directement dans nos produits, donc ne vous inquiétez pas, il n’y aura pas de réponses torrides dans nos applis ! »

La littérature est une matière précieuse pour de nombreux chercheurs en intelligence artificielle, notamment depuis le développement du « deep learning », une méthode d’apprentissage fondée sur un réseau de neurones artificiels permettant aux machines d’apprendre de façon plus autonome et efficace qu’avant.

Les programmes peuvent se fonder sur la littérature pour mieux s’exprimer, comme le fait celui de Google, mais aussi, et cela va de pair, pour développer une meilleure compréhension du langage. Des chercheurs de Facebook « entraînent » par exemple une machine avec des grands classiques de la littérature jeunesse comme Le Livre de la jungle ou Alice au pays des merveilles. Ils lui posent ensuite des questions sur le récit, auxquelles elle n’est capable de répondre que si elle « comprend » le contexte de l’histoire.

Valeurs morales

Deux chercheurs de Georgia Tech, Mark Riedl et Brent Harrison, vont encore plus loin. Selon eux, la littérature peut inculquer des valeurs morales à des programmes d’intelligence artificielle. « Nous n’avons pas de manuel rassemblant toutes les valeurs d’une culture, mais nous avons des collections d’histoires issues de ces différentes cultures », expliquent-ils dans leur article de recherche publié en février.

« Les histoires encodent de nombreuses formes de connaissances implicites. Les fables et les contes ont fait passer de génération en génération des valeurs et des exemples de bons comportements. (…) Donner aux intelligences artificielles la capacité de lire et de comprendre des histoires pourrait être la façon la plus efficace de les acculturer afin qu’elles s’intègrent mieux dans les sociétés humaines et contribuent à notre bien-être. »

Toutes ces recherches vont en tout cas dans un même sens : être en mesure de créer un jour un programme capable de communiquer le plus naturellement possible avec l’humain, à la façon des intelligences artificielles de films de science-fiction comme Her ou Iron Man. Ce dernier a d’ailleurs servi d’exemple au fondateur de Facebook, Mark Zuckerberg, qui a annoncé en janvier vouloir s’inspirer de Jarvis, le majordome virtuel de Tony Stark, pour ses futurs projets.

Un graal pour de nombreux chercheurs, mais, comme l’expliquait l’an dernier au Monde Yann Le Cun, directeur du laboratoire d’intelligence artificielle de Facebook et pionnier du deep learning, « on est très loin de ça ». « Pour Siri et Cortana, les réponses sont écrites à la main. Ces systèmes ne sont intelligents que parce que des ingénieurs ont pensé à toutes les possibilités. (…) Il faut créer des systèmes qui ont un sens commun, cela nécessite un bien meilleur niveau de compréhension que ceux qu’on a actuellement. On ne sait pas comment faire. » La littérature, à elle seule, est loin d’apporter la solution.