« Ces articles et les documents de formation publiés avec montrent à quel point il peut être difficile d’identifier ce qui est nocif. » Dans une tribune, publiée lundi 22 mai dans le quotidien britannique The Guardian, Monika Bickert, directrice de la politique de gestion des contenus de Facebook, répond aux articles parus la veille dans ce même journal, qui a obtenu des documents internes précisant la politique de modération de l’entreprise. « Nous ne partageons pas toujours les détails de nos règlements, parce que nous ne voulons pas aider les gens à les contourner », explique-t-elle, en réponse aux critiques accusant Facebook de manque de transparence.

« Les situations hypothétiques que nous utilisons pour former nos modérateurs sont intentionnellement extrêmes. Elles sont conçues pour aider les personnes qui font ce travail à gérer les cas les plus difficiles », détaille Monika Bickert, précisant qu’il y a dix ans, une partie des choix de modération « était laissée à la discrétion des employés ». Ceux-là doivent aujourd’hui gérer « des millions de signalements par semaine ».

Comprendre le contexte d’une publication et l’intention de son auteur est « difficile », insiste-t-elle. « Parfois nos règles peuvent paraître contre-intuitives », reconnaît-elle, évoquant celle qui consiste à autoriser la diffusion en direct de vidéos d’automutilation dans le but d’aider la personne, selon les recommandations d’experts. « Nous faisons des erreurs, et nous travaillons constamment pour que cela se produise moins souvent. Nous réfléchissons de façon très approfondie pour tenter de trouver les bonnes réponses, même quand il n’en existe pas », assume Monika Beckert, en précisant que les règles de modération de Facebook évoluent en permanence.