Les questions éthiques se font de plus en plus pressantes à mesure que l’intelligence artificielle progresse. | Manon Louvard / « Le Monde »

A l’heure où les technologies d’intelligence artificielle (IA) progressent à grands pas, soulevant quelques inquiétudes, les géants du secteur ont annoncé mercredi 28 septembre un partenariat pour définir de « bonnes pratiques », notamment en termes d’éthique. Google, Facebook, IBM, Microsoft et IBM ont officialisé dans un communiqué commun la création du « Partnership on Artificial Intelligence to Benefit People and Society » (« partenariat pour l’intelligence artificielle au bénéfice des citoyens et de la société »).

Ce partenariat prendra la forme d’une organisation à but non lucratif, qui « mènera des recherches, recommandera de bonnes pratiques, et publiera les résultats de ses recherches sous une licence ouverte ». Ses domaines d’activité concerneront notamment l’éthique, et plus largement l’impact de ces technologies sur la société. Son bureau devrait être constitué pour moitié de représentants de ces entreprises, l’autre moitié étant composée de chercheurs, d’associations et autres membres de la société civile.

Des technologies « qui ne font pas de mal »

Ce projet a aussi pour objectif de communiquer auprès du grand public afin de « l’éduquer et de l’écouter » sur ces questions, en promouvant « la transparence ». En expliquant mieux ce qu’est l’IA et les réalisations qui en découlent, ces entreprises espèrent désamorcer certaines craintes et favoriser l’adoption de ces technologies dans la société.

Toutefois, promet l’organisation, elle « ne compte pas effectuer de lobbying auprès des gouvernements ». Même si, a-t-on appris lors d’une conférence de presse rassemblant toutes ces entreprises, « le but sera d’éduquer le public, mais aussi les gouvernements ».

La note d’intention reste encore très vague, et n’engage en rien les entreprises participantes à appliquer les « bonnes pratiques » que définira cette organisation. Quelques principes forts sont néanmoins mis en avant : ce partenariat vise à « protéger la vie privée et la sécurité des individus », et « s’oppose au développement et à l’usage de technologies d’IA qui violeraient les conventions internationales ou les droits humains ». Même si, concrètement, il sera difficile de définir ce que sont des « technologies qui violeraient les droits humains », c’est davantage l’usage que la technologie elle-même qui serait en mesure de le faire. Qui plus est, si l’organisation dit « promouvoir des technologies qui ne font pas de mal », elle ne dit à aucun moment interdire celles qui en font.

Questions urgentes

Ces questions sont urgentes, à l’heure où les progrès de l’IA la rendent de plus en plus présente dans nos vies. La méthode du « deep learning » a notamment permis de grandes avancées ces dernières années, par exemple dans la reconnaissance d’images, la reconnaissance vocale et ce qui s’apparente à la « compréhension » du langage. Cette année, un programme de Google DeepMind fondé sur cette technologie a réussi l’exploit de battre au jeu de go l’un des meilleurs joueurs au monde – une prouesse que les experts n’attendaient pas avant dix ou vingt ans. Ces progrès inquiètent certaines personnalités, comme l’astrophysicien britannique Stephen Hawking, qui estime que l’IA « pourrait mettre fin à l’humanité », ou le fondateur de SpaceX, Elon Musk, qui considère qu’elle pourrait être « plus dangereuse que des bombes nucléaires ».

Et les enjeux de ces technologies dans nos vies sont imminents, par exemple dans le domaine de la santé, dans lequel ces entreprises s’investissent de plus en plus, ou du transport. Les voitures autonomes, qui reposent en grande partie sur l’intelligence artificielle, circulent déjà sur des routes américaines, posant de sérieux casse-tête éthiques. Par exemple, si un véhicule autonome ne peut pas éviter un accident, et que le programme doit choisir entre écraser une femme enceinte et tuer son passager, que doit-il faire ? Cette question est pressante, et personne n’a jusqu’ici répondu à ce problème de sécurité publique, qu’il s’agisse des entreprises qui fabriquent ces véhicules ou des autorités.

Apple, le grand absent

Cependant, les initiatives se sont multipliées ces derniers mois. Elon Musk a lancé en décembre Open AI, un centre de recherche pour développer des technologies d’IA « dans une direction plus à même de bénéficier à l’humanité ». L’institut des ingénieurs électriciens et électroniciens (IEEE), une très large association professionnelle, a mis en place en avril un comité d’éthique. L’université Stanford a lancé un observatoire de l’IA qui prévoit de publier régulièrement, durant les cent prochaines années, un état des lieux de l’IA, de ses évolutions et de ses enjeux. Le premier est sorti ce mois-ci. D’autres organismes créés plus tôt, comme l’Institut Allen pour l’intelligence artificielle ou le Future of Life Institute s’étaient déjà fait remarquer pour avoir imposé dans le débat public ce type de problématique.

Le nouveau Partenariat pour l’intelligence artificielle a ceci de différent qu’il rassemble cinq des entreprises les plus influentes dans ce domaine. Google, Facebook, Amazon, Microsoft et IBM sont à l’origine d’une bonne partie des avancées spectaculaires de ces dernières années, grâce à leurs armées d’ingénieurs, à leurs budgets pharaoniques, à la puissance de calcul de leurs machines mais aussi aux masses inédites de données dont elles disposent, indispensables pour développer ces technologies. Bien qu’elles décident de travailler côte à côte dans le cadre de ce partenariat, celles-ci se livrent au quotidien une guerre acharnée de vitesse, mais aussi de communication, sur le terrain de l’intelligence artificielle.

Un acteur de poids manque toutefois à l’appel : Apple. Des discussions ont eu lieu pour que l’entreprise rejoigne le partenariat, a-t-on appris lors de la conférence de presse. Elles n’ont pas encore abouti. Mais les membres de cette organisation aimeraient à l’avenir que la firme fondée par Steve Jobs, comme d’autres entreprises, les rejoigne, ainsi que les centres de recherche déjà existants. Si, pour le moment, ce projet se résume à une déclaration de bonnes intentions non contraignantes et peu concrètes, il s’agit néanmoins d’un premier pas pour débroussailler un terrain encore peu exploré, en impliquant les acteurs clés du secteur.