C’est une nouvelle mise en garde adressée aux géants du Web. Jeudi 28 septembre, la Commission européenne a publié de grands principes qu’elle souhaiterait voir appliqués rapidement par les plates-formes en ligne, sous peine de légiférer.

Ces lignes directrices ont pour but « d’améliorer de façon proactive la prévention, la détection et la suppression de contenus illégaux incitant à la haine, à la violence et au terrorisme », peut-on lire dans le communiqué de la Commission européenne.

Celle-ci propose, dans un premier temps, d’améliorer la détection des contenus problématiques. Elle souhaite tout d’abord que les entreprises concernées établissent des « points de contact » permettant aux autorités de chaque pays de leur signaler facilement un contenu illégal – un dispositif de ce type existe déjà en France. Elle encourage aussi ces plates-formes à travailler avec des entités spécialistes d’un sujet, comme des associations de lutte contre l’homophobie, par exemple, qui peuvent signaler directement des contenus illégaux. La Commission veut aussi que ces plates-formes facilitent le signalement de contenus délictueux par les internautes, et « investissent dans des technologies de détection automatique ».

Dans un second temps, la Commission européenne estime qu’un contenu illégal devrait être « retiré aussi vite que possible », mais elle ne donne pas plus de précisions, soulignant que la question du temps de réaction « sera analysée par la Commission ».

Enfin, elle demande que des mesures soient prises « pour dissuader les utilisateurs de publier à répétition du contenu illégal », encourageant là aussi le recours à des technologies d’automatisation. Ces différentes recommandations ne devraient toutefois pas satisfaire les défenseurs des libertés en ligne, qui soulignent depuis plusieurs années que confier à des entreprises privées, et encore plus à des algorithmes automatisés, la tâche de décider quel discours est ou non acceptable en ligne ne peut se faire sans dérives.

Des principes souvent déjà appliqués

Ces principes s’accompagnent d’une mise en garde claire : « La Commission suivra de près les progrès des plates-formes en ligne ces prochains mois pour décider si des mesures supplémentaires sont nécessaires pour s’assurer de la détection et de la suppression rapides et proactives de contenus illégaux en ligne, y compris d’éventuelles mesures législatives ».

Ce que tentent d’éviter à tout prix les géants du Web, déjà visés par une loi votée cet été en Allemagne, qui les oblige à supprimer ces contenus en vingt-quatre heures, sous peine d’une amende de 50 millions d’euros.

L’an dernier, la Commission européenne avait d’ailleurs signé un « code de conduite » avec Facebook, Twitter, YouTube et Microsoft par lequel ils s’engageaient à supprimer les contenus haineux en moins de vingt-quatre heures.

Les nouveaux principes évoqués jeudi par la Commission sont toutefois déjà appliqués, pour la plupart, par les grandes plates-formes que sont Facebook, Twitter, Google et YouTube, entre autres. Depuis que la pression des Etats s’est accentuée sur eux, notamment depuis 2015 et la série d’attentats qui a frappé des pays occidentaux, les annonces se sont enchaînées et vont dans le sens des propositions de la Commission.

Des outils de détection automatique commencent à être déployés, et les plates-formes revoient leur design pour rendre le signalement plus accessible pour les internautes. Les liens se sont aussi resserrés avec des associations, mais aussi avec les autorités de certains pays, ainsi des réunions sont-elles régulièrement organisées en France entre des représentants de ces entreprises et des forces de l’ordre. Mais, en dépit ces efforts, les résultats sont encore loin d’être parfaits, et de nombreux contenus délictueux réussissent toujours à passer entre les mailles du filet.