Le « Guardian » a publié des documents internes de Facebook détaillant sa politique de modération avec des exemples précis. | Noah Berger / AP

Que faire si un utilisateur profère des menaces de mort sur Facebook ? Parle de tuer le président des Etats-Unis ? Ou poste des images d’animaux morts ? Le 22 mai, le quotidien britannique The Guardian a annoncé avoir obtenu des documents internes du réseau social, détaillant les consignes de modération sur la plate-forme. Sarah Roberts, chercheuse en sciences de l’information à l’université de Californie de Los Angeles (UCLA), revient sur le contenu de ces guides à usage interne.

Que nous apprennent les documents publiés par le Guardian concernant la politique de modération de Facebook ?

Sarah Roberts : De nombreuses personnes se concentreront sur les consignes spécifiques des guides de modération. A mon sens, cependant, il y a une analyse bien plus importante à faire : ces documents révèlent les décisions politiques de Facebook. Alors que l’entreprise affirme sans cesse que son rôle n’est pas un rôle éditorial, ceux-ci attestent du contraire.

La plupart des services de diffusion de contenus sur Internet mettent en avant les règles à suivre sur leurs sites, et affirment qu’une chaîne de décision très claire conduit à leur suspension. Or, lorsque Facebook estime que des images participent à une opération de sensibilisation de l’opinion, il laisse en ligne des contenus qui contreviennent aux règles qu’il a lui-même édictées. Dans ce cas, on peut aussi s’interroger sur ce qui est retiré !

Le manque de transparence de Facebook est une question importante, car son pouvoir est immense : plus d’un milliard de personnes utilisent le site, souvent comme source d’information ou comme moyen de communiquer.

A qui s’adressent les documents ?

Selon toute vraisemblance, il s’agit de documents destinés à des sous-traitants. Ils ressemblent à de nombreux autres qui ont déjà fuité par le passé. En règle générale, quand une plate-forme décide de délocaliser sa modération, ses sous-traitants ont besoin d’informations très précises sur ce que l’on attend d’eux. Mais il n’y a aucune raison de penser que ces règles ne sont pas également suivies par les employés de Facebook : les éléments révélés concernent des sujets d’actualité, ce qui montre que les règles évoluent en permanence.

Sait-on quelle part de la modération de Facebook est réalisée par des sous-traitants, et quelle part est effectuée par des salariés ?

Il y a trois semaines, Facebook a annoncé qu’il allait embaucher 3 000 personnes de plus pour aider ses 4 500 modérateurs. Par ailleurs, nous savons que le nombre total d’employés de Facebook se situe autour de 20 000 personnes... La probabilité qu’il augmente aussi vite son nombre de salariés est assez faible. Qu’il soit possible de recruter autant de personnes aussi rapidement est également une indication du fait qu’il s’agit sans doute de prestataires.

Les documents incluent des directives concernant, par exemple, le président des Etats-Unis. Comment des sous-traitants peuvent-ils aborder des thématiques propres à la culture nord-américaine ?

Facebook, comme d’autres entreprises, n’hésite pas à s’installer dans certaines parties du monde pour mieux s’adapter aux demandes locales. Par exemple, l’entreprise a été sous le feu des critiques en Allemagne parce qu’elle ne respectait pas les lois encadrant la liberté d’expression ; elle a donc ouvert un centre à Berlin et embauché des prestataires sur place pour faire face à cette situation.

Pour la culture américaine, Facebook, comme d’autres, peut se tourner vers les Philippines. C’est un pays qui dispose de travailleurs qualifiés et ceux-ci maîtrisent déjà les normes culturelles anglo-saxonnes, puisqu’il s’agit d’une ancienne colonie américaine.

Plutôt que de s’appuyer sur des modérateurs à l’autre bout du monde, Facebook n’aurait-il pas intérêt à employer un système informatique de filtrage ?

S’ils le pouvaient, ils l’auraient déjà fait. Si Facebook disposait d’un algorithme suffisamment perfectionné ou d’une intelligence artificielle fonctionnelle, ils n’auraient pas annoncé l’embauche de 3 000 modérateurs. Ils travaillent évidemment sur ces moyens informatiques. Mais pour l’instant, pour répondre à cette demande, ils n’ont pas d’autre choix que de faire appel à des humains.