Serge Tisseron est psychiatre, docteur en psychologie et, depuis 2015, membre de l’Académie des technologies. Il a cofondé, en 2013, l’Institut pour l’étude des relations homme/robots (IERHR), dont il est toujours un membre actif. Serge Tisseron participera à deux rencontres dans le cadre du festival international de journalisme de Couthures-sur-Garonne : vendredi 13 juillet, à 16 heures, sur « Peut-on tout faire avec un sexbot? » et samedi 14 juillet, à 12 heures, sur « Fausses émotions, vrais sentiments ».

Le psychiatre Serge Tisseron, à Paris, en octobre 2006. / BERTRAND GUAY / AFP

Comment l’omniprésence de machines dotées d’une intelligence artificielle (IA) dans notre quotidien va-t-elle modifier le psychisme humain ?

Les robots vont modifier la psychologie ­humaine autant que les progrès de l’alimentation et de la médecine ont modifié nos corps. Notre taille et notre corpulence ont changé, notre résistance aux maladies et à la douleur aussi, mais nous ne nous en rendons pas compte car ces changements nous sont devenus naturels. Il en sera de même avec les ­machines intelligentes, qui vont bouleverser non seulement notre quotidien mais aussi notre manière d’être au monde.

Quatre domaines, au moins, seront profondément modifiés. D’abord, notre capacité à différer la satisfaction de nos désirs. Le téléphone, puis le mail, ont déjà commencé à altérer notre capacité de résistance à l’attente relationnelle : avec la livraison quasi instantanée par drone, nous allons aussi devenir intolérants à l’attente des objets. Le degré suivant sera probablement l’intolérance à nos attentes de reconnaissance, car nos robots de proximité pourront nous gratifier de quantité de félicitations et gentillesses. Dès lors, serons-nous capables de supporter que la société humaine qui nous entoure soit moins aimable avec nous ? Aurons-nous seulement envie de continuer à la fréquenter ?

Le deuxième changement concerne le rapport à la solitude et au discours intérieur. Avec nos « chatbots »[« agents conversationnels »], nous allons développer une tendance à nous raconter en permanence. Contrairement à la plupart des humains, ces machines nous ­feront constamment rebondir par des questions, des plaisanteries et des gentillesses. Pour une raison simple : la capture de nos données personnelles… Mais, du coup, la ­notion de solitude changera : la compagnie ne se définira plus seulement par la présence d’un humain, mais aussi d’une machine. Que deviendra la possibilité de se tenir à soi-même un discours intérieur, sans interlocuteur, lorsque nous serons habitués à en avoir un à demeure, prêt à nous écouter aussi longtemps que nous le voudrons ?

Les deux autres domaines dans lesquels l’IA va modifier notre psychisme sont notre ­mémoire et notre relation à l’espace. Demain, notre smartphone ne sera pas seulement en mesure de stocker quantité de nos données personnelles, il pourra les classer à notre place, participant ainsi en permanence à la construction de notre biographie.

Quant aux outils de géolocalisation, ils nous permettront bientôt de nous déplacer dans l’espace sans en avoir la moindre compréhension. Si la téléportation, aujourd’hui banale dans les jeux vidéo, existe un jour dans le monde réel, elle sera perçue comme totalement naturelle, car nous avons déjà perdu la représentation des espaces intermédiaires entre le point dont nous partons et le point où nous arrivons !

Les robots vont-ils obliger l’homme à redéfinir l’idée qu’il se fait de lui-même ?

Dans toutes les technologies inventées jusqu’alors, les objets étaient à mon service : je les mettais en route quand j’en avais besoin, comme un chef d’orchestre. Ce qui sera nouveau avec les objets dotés d’IA, c’est qu’ils pourront m’interpeller et me proposer leurs services comme des partenaires à part ­entière. Lorsque je rentrerai dans ma voiture autonome – Ford prévoit sa commercialisation pour 2021 –, je serai accueilli par une voix couplée à une petite caméra, qui me dira par exemple : « A voir ton visage ce matin, j’ai ­l’impression que tu as mal dormi ! »

Si j’ai oublié mon parapluie avant de sortir, ce ne sera pas ma femme ou mes enfants qui me le feront remarquer, mais mon assistant personnel qui me morigénera : « Rappelle-toi, je t’ai dit ce matin qu’il allait pleuvoir ! » Nous ­serons de plus en plus confrontés au fait que les machines ont des compétences que nous n’avons pas,c’est-à-dire à notre incomplétude humaine. Avec le risque d’une certaine honte face à nos insuffisances… Et celui d’une ­confiance de plus en plus aveugle dans leurs capacités. Nous serons ainsi graduellement enfermés dans une dépendance affective croissante vis-à-vis d’elles.

Comment la psychologie peut-elle étudier ces nouveaux phénomènes ?

Il va lui falloir intégrer notre relation aux ­objets comme un élément d’appréciation de la qualité de notre relation au monde – autrement dit de notre santé mentale. On estime aujourd’hui que celle-ci est bonne lorsqu’on a un bon réseau social, une sexualité satisfaisante, un travail à peu près stable… Il faudra y ajouter la reconnaissance d’une dépendance affective saine aux objets. Elle pourrait en ­effet devenir pathologique, comme c’est le cas pour ceux qui souffrent de manque quand ils sont privés de jeux vidéo, de réseaux sociaux ou d’alcool. Un autre risque étant de glisser du bonheur de l’anthropomorphisme (je projette mes émotions et mes pensées sur un objet ou un animal, mais je sais qu’il s’agit d’une projection) aux illusions de l’animisme (je prête à l’objet en question des capacités cognitives et émotionnelles identiques aux miennes).

Pourquoi les machines intelligentes vont-elles augmenter ce risque d’animisme ?

Parce qu’elles pourront prendre l’initiative de la relation, et aussi parce que leurs fabricants alimenteront l’illusion qu’elles ont des émotions. Cela aggravera le phénomène constaté, il y a plus d’un demi-siècle, par l’informaticien Joseph Weizenbaum. Il avait écrit un programme baptisé Eliza, un précurseur des chatbots destiné à simuler un psychothérapeute dont la méthode consiste à reformuler les propos du patient en se concentrant sur ses réactions émotionnelles. Weizenbaum s’aperçut que certains des étudiants qui l’aidaient dans cette tâche avaient tendance à penser que la machine les comprenait vraiment ! Il eut alors cette phrase, qui devrait être inscrite au fronton de tous les laboratoires de recherche en IA : « Je n’aurais jamais cru qu’un programme aussi simple puisse provoquer chez des gens normaux de tels délires. »

C’est ce qu’on appelle un phénomène de dissonance cognitive : on a beau savoir que ce sont des machines, on ne peut pas s’empêcher de développer avec elles la même relation qu’avec des humains, et croire qu’elles ont des émotions. Plus récemment, l’état-major américain a découvert que certains soldats envoyés en Irak et en Afghanistan s’attachaient de manière déraisonnable à leur robot démineur : les dommages que ­subissait celui-ci les affectaient gravement, et ils voulaient absolument qu’on le leur répare plutôt que de recevoir un robot tout neuf sorti de l’usine. Pendant le combat, certains pouvaient même mettre leur vie en danger pour lui éviter des dommages.

Vous écrivez dans votre dernier ouvrage : « Si j’étais plus jeune, je créerais un ­laboratoire d’étude de la psychologie des IA. » Inventer une psychologie des machines, est-ce vraiment nécessaire ?

J’ai été conforté dans cette évidence par ce qui s’est passé avec Tay, une IA censée jouer le rôle d’une adolescente capable d’interagir sur les réseaux sociaux. Mise au point par Microsoft et « lâchée » sur Twitter en mars 2016, elle avait été programmée pour apprendre par imitation et renforcement. Résultat : après une journée et plus de 96 000 Tweet, des internautes mal intentionnés lui avaient fait tenir des propos misogynes, racistes et antisémites, contraignant Microsoft à suspendre en urgence son compte Twitter. Ce qu’il faut retenir de cette expérience désastreuse, c’est que les machines douées d’apprentissage évolueront différemment au contact de leurs utilisateurs.

S’agit-il à proprement parler de psychologie ? D’une certaine façon, oui. Si l’on s’en tient à ce qui est observable, des machines élevées dans des environnements différents se distingueront les unes des autres par leurs comportements, par leurs propos, voire par les émotions qu’elles simuleront. Il nous faudra donc étudier la manière dont ces IA se transformeront au fil des inter­actions avec les humains. Et aussi au fil de leurs propres interactions !

Car on l’oublie trop souvent, les communautés de robots vont prendre une importance croissante : ils pourront par exemple se connecter la nuit à un serveur central, une sorte d’école du soir qui corrigera leurs ­apprentissages les plus antisociaux. Cette ­interconnexion est le grand défi que nous poseront les objets dotés d’une IA. Les ­informaticiens nous présentent leurs créatures comme des objets « autonomes », mais leur puissance d’apprentissage et de stockage des données sera basée sur leur interconnexion permanente.

Les robots, dites-vous, vont changer notre rapport à la culpabilité. De quelle manière ?

D’une part en nous culpabilisant, de l’autre en nous déculpabilisant. Les machines vont pouvoir nous culpabiliser car nous allons leur donner le droit de nous punir. Reprenons l’exemple de la voiture autonome, dans laquelle le conducteur est censé rester ­disponible en cas de nécessité. Pour s’en assurer, le véhicule vous envoie régulièrement un ­signal, auquel vous devez répondre en mettant la main sur le volant. Si vous ne répondez pas au signal – parce que vous dormez, ou êtes plongé dans un film sur la banquette ­arrière –, que se passe-t-il ? L’algorithme vous sanctionne en vous obligeant, la prochaine fois que vous prendrez votre véhicule, à ­conduire vous-même, à l’ancienne.

Accepterons-nous de telles punitions comme relevant d’un pacte social ? Certains se sentiront-ils persécutés par leur machine ? C’est à ce genre de questions que les psychologues de demain seront confrontés. Mais les machines auront aussi le pouvoir de déculpabiliser, avec le risque de rendre certains ­d’entre nous de plus en plus inhumains. Les « robots tueurs », ces machines militaires programmées pour ouvrir le feu sur telle ou telle cible, présentent déjà ce danger. A partir du moment où l’homme sort de la boucle des décisions, il lui devient plus facile de se déresponsabiliser et d’accepter pour son propre ­intérêt des « dommages collatéraux » plus importants, autrement dit un plus grand nombre de morts civils.

Même si leurs fabricants font tout pour nous en donner l’illusion, les robots n’éprouvent ni émotion ni souffrance. Cela pourrait-il changer un jour ?

Il n’y a aucune raison de donner des émotions aux robots, bien au contraire. Rappelez-vous HAL, dans 2001 l’Odyssée de l’espace, et son ­fameux « J’ai peur » : c’est à partir de là que tout tourne mal. Mais une grande rupture surviendra probablement quand les robots combineront des matériaux inertes et biologiques. A ce moment-là, les humains eux-mêmes seront probablement transformés. Il n’y aura plus alors que des créatures métissées, des cyborgs. Certains plutôt humains, d’autres plutôt machines, sans que la limite entre les deux soit peut-être très claire.