Discours haineux, harcèlement, nudité ou encore suicide : Facebook dévoile ses règles internes de modération. / Thomas White / REUTERS

Après avoir jalousement gardé secrètes ses règles de modération internes, Facebook a finalement décidé, mardi 24 avril, de les rendre publiques. Jusqu’ici, le réseau social aux 2 milliards d’utilisateurs n’en affichait que les grandes lignes. Au fil des années, et des controverses, elle les avait étoffées, mais c’est la première fois que l’entreprise détaille à ce point ce complexe règlement.

En plus de 8000 mots, Facebook égrène ainsi un grand nombre de problématiques, de la nudité au harcèlement, en passant par la pédopornographie, le discours de haine, le suicide ou les violences en général. Ces règles de modération internes avaient déjà partiellement fuité dans la presse ces dernières années, notamment dans le Guardian et la Süddeutsche Zeitung.

« En premier lieu, ces règles aideront les gens à comprendre où est-ce que nous traçons la limite sur des problèmes nuancés », explique Monika Bickert, directrice de la politique de gestion des contenus de Facebook, dans un communiqué. « Ensuite, donner ces détails facilite la possibilité pour tous, y compris des experts de différents champs, de nous faire des retours pour que nous puissions améliorer ces règles. »

L’existence de « groupes vulnérables » officialisée

Que nous apprend ce document ? Dans les grandes lignes, rien de neuf, mais ce sont les détails qui révèlent la complexité de la tâche de Facebook.

Menaces. Comment définir, par exemple, ce qui relève de la « menace crédible », interdite sur le réseau social ? Il ne lui faut pas moins de deux pages pour répondre à cette question. Le message doit par exemple contenir une cible précise ainsi que deux détails parmi les suivants : lieu, heure ou méthode. Il ne s’agit que d’un paramètre parmi d’autres sur cette seule question des menaces…

Groupes protégés. Facebook officialise dans ces documents l’existence de « groupes vulnérables », qui disposent de protections supplémentaires, comme « les chefs d’Etat, les témoins et sources, les militants et les journalistes ». Mais aussi de « caractéristiques protégées » contre les propos haineux : « la race, l’ethnie, le pays d’origine, la religion, l’orientation sexuelle, le sexe, le genre, l’identité de genre, le handicap ou la maladie ». Facebook apporte aussi, depuis l’an dernier, « certaines protections » aux migrants.

Discours haineux. Les attaques haineuses sont séparées en trois degrés de gravité. Le premier concerne entre autres le discours « déshumanisant », consistant par exemple à comparer quelqu’un, ou un groupe, à de la saleté ou des défections. Le deuxième implique des déclarations « d’infériorité physique, mentale ou morale » ou des expressions comme « je hais » ou « ce sont les pires ». Le troisième concerne les « appels à l’exclusion ou à la ségrégation ».

Harcèlement. Sur la question du harcèlement, Facebook dit protéger davantage les mineurs : certains contenus les visant sont supprimés, comme ceux leur prêtant une relation amoureuse par exemple. En revanche, les règles liées au harcèlement sont moins protectrices pour les personnalités publiques. Car, explique Facebook, « nous voulons permettre les échanges, qui incluent souvent des propos critiques sur les personnes qui apparaissent dans l’actualité ». Ce qui pourrait s’illustrer avec Donald Trump, dont chaque apparition génère des torrents de messages plus ou moins policés sur les réseaux sociaux.

Le cas des poitrines de femmes

Nudité. Concernant la nudité, éternel sujet de discorde sur Facebook, le réseau social explique que celle-ci peut être acceptée dans le cadre « d’une manifestation, pour sensibiliser à une cause, ou pour des raisons pédagogiques ou médicales ». Les photos d’allaitement ou post-mastectomie sont donc tolérées.

Facebook précise aussi autoriser les photographies « de peintures, sculptures et autres œuvres d’art dépeignant des nus ». Le réseau social est régulièrement épinglé pour supprimer de telles œuvres, comme le célèbre cas de L’Origine du monde, ou plus récemment celui de la Venus paléolithique.

Concernant les enfants, Facebook précise aussi qu’il est interdit que leurs parties génitales soient visibles, tout comme les « mamelons de filles plus âgées que des bébés ». En 2016, Facebook avait ainsi censuré, avant de faire marche arrière, une célèbre photographie historique montrant une enfant nue fuyant un bombardement au napalm au Vietnam.

Suicide. Le réseau social évoque aussi la question du suicide, dont la promotion est interdite, ainsi que les images. Sauf dans certains cas : s’il s’agit d’un fait d’actualité ou d’une euthanasie « dans un cadre médical ». Auquel cas, les contenus resteront en ligne, assortis d’un avertissement.

Violence graphique. Même fonctionnement concernant les contenus visuels violents. La glorifier est interdit, mais utiliser des images de violence pour les dénoncer est toléré, avec avertissement. Le réseau social liste aussi les contenus acceptés mais accompagnés d’avertissement, comme des images de corps démembrés « dans un environnement médical », de « personnes en feu », de torture contre les animaux ou d’un enfant « étranglé par un adulte ».

« Il y a des circonstances dans lesquelles on autorise les contenus visuels violents, avec un avertissement, si c’est fait pour condamner l’acte, ou de façon neutre – par exemple, un journaliste peut partager des images violentes », explique Siobhan Cummiskey, responsable de la politique des contenus chez Facebook, au Monde

Quelques règles toujours secrètes

La publication de ces règles s’inscrit dans une volonté de Facebook « d’être de plus en plus transparent », assure la responsable. Malgré cela, le réseau social n’a toutefois pas tout dévoilé de ses règles de modération internes.

« Ces règles suivent de très près celles utilisées par notre équipe, mais il y a quelques petits détails que nous avons gardés pour nous, afin d’empêcher des gens de contourner le système. »

C’est d’ailleurs cette raison que Facebook avançait, depuis des années, pour expliquer pourquoi ces règles internes n’étaient pas rendues publiques. Les documents précédemment révélés par la presse étaient encore plus précis que ceux publiés aujourd’hui, et assortis d’exemples très concrets, parfois graphiques – et passablement choquants.

Parallèlement à cette mise en ligne, Facebook a aussi annoncé qu’il serait désormais possible, pour les utilisateurs dont une publication aurait été supprimée pour « nudité, activité sexuelle, discours de haine ou violence graphique », de faire appel. Le contenu sera alors à nouveau analysé par l’équipe de modération dans les 24 heures, assure Facebook, et restauré si nécessaire.

Les règles de modérations présentées aujourd’hui seront amenées à évoluer avec le temps, prévient l’entreprise, notamment en fonction des avis d’experts et d’utilisateurs. Facebook s’apprête d’ailleurs à organiser des événements inédits dans plusieurs pays du monde, « pour avoir un échange avec le public, pour partager plus d’informations et ouvrir le débat », précise Siobhan Cummiskey.