Les grandes entreprises du numériques comme Apple, Google, Amazon ou Microsoft ont développé leurs propres assistants vocaux. / Quentin Hugon / Le Monde

Alexa, Siri, Cortana… Ces célèbres assistants vocaux portent des noms féminins et s’expriment par défaut au travers d’une voix de femme. L’Organisation des Nations unies pour l’éducation, la science et la culture (Unesco) a décidé d’étudier l’impact que pourraient avoir ces technologies sur la représentation des femmes. Ses conclusions, publiées cette semaine dans un long rapport, estiment que ces systèmes tendent à renforcer les stéréotypes sexistes.

Les auteurs du rapport s’intéressent d’abord au choix, de la part des principaux concepteurs d’assistants vocaux, d’en faire des femmes. Notamment à travers leur nom (à l’exception de Google Assistant), et leur voix, souvent féminine par défaut (Google Assistant compris). Certaines des équipes créatives censées façonner leurs répliques ont aussi expliqué à la presse leur avoir attribué un profil féminin (dans l’imaginaire de son personnality designer, Google Assistant est ainsi une jeune femme brillante originaire du Colorado).

« Serviables et dociles »

« Pour justifier la décision de fabriquer des assistants vocaux féminins, les entreprises comme Amazon et Apple ont cité des travaux de recherche démontrant que les gens préfèrent une voix féminine à une voix masculine », écrit l’Unesco, qui met en doute cette analyse, citant d’autres travaux aux conclusions inverses ou plus complexes. Certains concluent, en fait, que « les gens aiment entendre une voix masculine quand elle donne des ordres, et une voix féminine quand elle est là pour aider », explique l’Unesco.

En résumé, poursuit-elle, « la préférence des gens pour les voix féminines, si tant est qu’elle existe, a moins à voir avec le son, le ton, la syntaxe ou la cadence, qu’avec la façon dont on l’associe avec la notion d’assistance ». Il affirme d’ailleurs qu’à l’inverse, les voix des GPS, qui donnent des ordres (« tournez à droite », « prenez la deuxième sortie »), sont majoritairement masculines par défaut. Des exemples « qui montrent que le type d’action ou de service qu’une technologie vocale propose définit souvent son genre ».

Pour les auteurs du rapport, cela a des conséquences néfastes :

« Le fait que la voix des assistants vocaux soit féminine envoie comme signal que les femmes sont serviables, dociles, toujours prêtes à aider. (…) L’assistant vocal répond toujours aux demandes, quels que soient leur ton ou leur hostilité. »

Du flirt pour répondre aux agressions

L’Unesco critique aussi la façon dont sont conçus ces systèmes d’intelligence artificielle (IA) pour répondre aux agressions verbales ou aux sollicitations sexuelles. A l’invective « Hey Siri, tu es une salope », le système a longtemps répondu : « si je pouvais, je rougirais » – une réponse qu’Apple a finalement modifiée le mois dernier, pour : « je ne sais pas quoi répondre à ça. » Les assistants vocaux comme Siri donnent souvent, selon l’Unesco, des réponses « visant à changer de sujet, plates ou contrites » en cas de sollicitations d’ordre sexuel – qui représentent une part non négligeable des requêtes qui leur sont adressées.

« Malgré cela, les entreprises comme Apple et Amazon, constituées en grande majorité d’ingénieurs masculins, ont construit des systèmes d’IA conçus pour répondre aux agressions verbales par le flirt et l’humour », déplorent les auteurs du rapport. Ils soulignent que ces technologies ne répondent quasiment jamais par la négative à ce type de sollicitation, ni ne signalent à l’utilisateur que ses propos sont inappropriés. « Leur passivité, notamment face aux agressions verbales, renforce les stéréotypes sexistes », estiment-ils.

Améliorations

Les entreprises citées ont toutefois apporté au fil des années des modifications à leurs produits, même s’il reste encore beaucoup à faire, selon eux. Si Cortana et Alexa ne proposent toujours pas de voix d’homme, Siri et Google Assistant permettent désormais à l’utilisateur de choisir – mais la voix est toujours féminine par défaut. Avec des exceptions pour Siri, selon la langue, s’étonne l’Unesco : en français, en arabe, en néerlandais ou en anglais britannique, l’assistant a par défaut une voix d’homme.

Bixby, l’assistant vocal de Samsung, ne propose lui pas de voix par défaut, il demande à l’utilisateur de choisir. En 2017, il définissait toutefois chacune des voix par des mots-clés : « gaie, claire, joyeuse » pour la voix féminine, « sûre, confiante, claire » pour la voix masculine – des mentions désormais supprimées.

L’Unesco note aussi une amélioration dans les réponses des assistants vocaux d’Apple, Amazon, Google et Microsoft aux agressions verbales sexistes, avec la suppression des réponses qui « minaudaient » particulièrement.

« Les utilisateurs finiront par prendre ça pour la norme »

« Les modèles dominants d’assistants vocaux cristallisent les conceptions de ce qui est considéré comme “normal” ou “anormal” », conclut l’Unesco. Elle développe :

« Si la grande majorité des systèmes d’IA capables de s’exprimer à la façon d’un humain sont genrés comme de jeunes femmes joyeuses venant d’Amérique du Nord (comme beaucoup le sont aujourd’hui), les utilisateurs finiront par prendre ça comme la norme. Et si des technologies genrées comme Siri et Alexa contournent les agressions verbales, comme elles le font aujourd’hui, plutôt que de s’y confronter, les utilisateurs pourraient aussi finir par considérer que c’est la norme. »

Les auteurs du rapport émettent quelques recommandations, à commencer par la poursuite d’études sur le sujet, plus approfondies encore, notamment sur l’impact réel de ces technologies sur le sexisme. Plus concrètement, ils conseillent aux concepteurs de ne plus imposer de voix féminines par défaut, et de concevoir des réponses fermes aux agressions verbales. Ils aimeraient aussi voir se développer davantage d’expérimentations autour de voix non genrées, afin de déterminer si cela conviendrait aux utilisateurs. Enfin, car c’est le cœur du problème, l’Unesco émet plusieurs recommandations visant à augmenter drastiquement le nombre de femmes dans le secteur des nouvelles technologies, afin que ces systèmes ne soient pas conçus par des équipes en grande majorité masculines comme aujourd’hui.