Twitter va mettre en place un système permettant d’empêcher l’affichage de messages comportant certains mots définis par l’utilisateur. | Richard Drew / AP

Régulièrement accusé de passivité face à la prolifération des contenus haineux, Twitter a annoncé mardi 15 novembre trois mesures pour améliorer l’expérience des utilisateurs. Celles-ci seront progressivement déployées dans les jours à venir.

La première, la plus importante, consiste à donner la possibilité aux utilisateurs de masquer des mots et des conversations. Les filtres par termes existent déjà sur Tweetdeck, un logiciel permettant d’utiliser le réseau social, mais sont étendus à tout Twitter. Les utilisateurs pourront choisir eux-mêmes jusqu’à 100 mots différents – par exemple des insultes –, qu’ils ne verront plus s’afficher dans leurs notifications.

Il sera également possible de « muter » (rendre invisibles) certaines conversations. « Ce sont deux options qui permettent aux gens d’avoir plus de contrôle sur ce qu’ils voient et une meilleure expérience sur Twitter. Pour l’instant cela ne concerne que les notifications. On travaille pour aller plus loin », précise au Monde Audrey Herblin, directrice des affaires publiques et philanthropiques chez Twitter France.

« Une responsabilité en tant qu’entreprise »

Seconde annonce : les équipes de modération de Twitter ont fait l’objet d’une formation, notamment pour les sensibiliser à l’histoire et à la culture des différents pays dans lesquels le réseau social est présent, afin d’être plus pertinents dans leurs arbitrages. Le réseau social interdisait déjà les messages de haine fondés sur l’appartenance ethnique, la couleur de peau, l’identité sexuelle, l’orientation sexuelle ou encore la religion. L’entreprise, qui reconnaît un manque d’efficacité depuis un an sur le sujet, annonce vouloir « devenir meilleure et mieux l’appliquer ». Elle se refuse toutefois à communiquer sur la taille exacte des équipes de modération.

Enfin, il sera désormais possible de signaler directement du contenu en précisant pour chaque tweet problématique en quoi il viole les conditions d’utilisation du site : insulte raciale, homophobe, sexiste, etc. Le but, explique Twitter, est de faciliter le tri en amont pour les équipes de modération, et leur permettre d’accélérer le traitement des demandes.

« Nous avons une responsabilité en tant qu’entreprise, que ce soit vis-à-vis de nos partenaires, des éducateurs, des associations ou des pouvoirs publics, celle de planter les graines d’une citoyenneté positive et d’un bon comportement, explique au Monde Sinead McSweeney, directrice des relations publiques et de la communication pour la région Europe et Moyen-Orient. Nous donnons aux gens le pouvoir de ne pas rester observateurs mais de lutter contre les discours de haine. C’est notre philosophie : combiner une campagne de sensibilisation et des outils. C’est un pas sur une route qui est encore longue. »

Les associations de lutte contre le racisme et le sexisme en ligne demandent depuis plusieurs années que Twitter se montre plus actif dans la lutte contre le harcèlement. Le réseau social reconnaît n’avoir pas été assez réactif jusqu’à présent. Certaines pistes simples évoquées depuis cinq ans en interne n’ont toujours pas été mises en place, comme la mise en avant des tweets « amis » dans les réponses.