Après l’attentat perpétré le 15 mars à Christchurch, en Nouvelle-Zélande, par un extrémiste australien qui a massacré cinquante personnes dans deux mosquées et diffusé en direct ses actes dans une vidéo sur son profil Facebook, le Parlement australien a décidé de hausser fortement le ton contre les réseaux sociaux.

Les élus ont adopté, jeudi 4 avril, une nouvelle législation qui prévoit, entre autres, d’instaurer des peines de prison et une forte amende aux plates-formes comme Facebook, Twitter et YouTube, dans le cas où les contenus de ce type ne seraient pas rapidement supprimés, après leur mise en ligne.

Forte amende et peines de prison

Plus précisément, le texte (appelé en anglais « Sharing of Abhorrent Violent Material Bill ») rend illégal le fait, pour un réseau social, de ne pas retirer les images « d’actes terroristes », de meurtres, de viols, de tortures et d’enlèvements, qui sont enregistrées et diffusées directement par l’auteur (ou les auteurs) des faits depuis le territoire australien.

La loi prévoit également que les plates-formes comme Facebook et YouTube puissent être punies de milliards de dollars d’amende (10 % de leur chiffre d’affaires annuel) si elles ne procèdent pas « au retrait rapide » des contenus en question. Une telle amende pourrait aussi être prononcée si les plates-formes n’arrivent pas à dire à la police australienne si les images de tels actes violents commis en Australie sont diffusées sur leurs sites.

Le texte prévoit enfin que les cadres dirigeants des entreprises concernées risquent jusqu’à trois ans de prison s’ils sont reconnus coupables de ne pas avoir modéré suffisamment rapidement les contenus visés. Sur plainte du ministère public, c’est un jury qui sera chargé d’établir si les réseaux sociaux et autres plates-formes ont retiré les contenus avec suffisamment de célérité.

Un texte à l’avenir encore incertain

Les entreprises technologiques, les experts et les avocats sont vent debout contre le texte, qui a passé la rampe du Parlement australien en un temps record. Mais le devenir de cette loi reste incertain, en raison des élections législatives qui doivent se dérouler en mai.

Le premier ministre conservateur, Scott Morrison, qui est en position délicate pour ce scrutin, a justifié cette loi en pointant la responsabilité des géants de l’Internet. « Les grands groupes de réseaux sociaux ont la responsabilité de prendre toutes les mesures possibles pour s’assurer que leurs produits technologiques ne sont pas exploités par des terroristes meurtriers ». Le Parti travailliste australien (opposition) a fait part de ses réserves mais a voté en faveur du texte.

L’attorney general Christian Porter, l’équivalent australien du ministre de la justice, a expliqué que cette nouvelle législation pourrait aussi viser des plates-formes utilisées par l’extrême droite, comme 4Chan et 8Chan (où le terroriste de Christchurch a posté un texte de revendications quelques minutes avant de commettre son crime).

« Conséquences involontaires graves »

Le Law Council, l’association des barreaux australiens, a de son côté dénoncé une « loi réflexe » et mis en garde contre de possibles « conséquences involontaires graves ». Elle pourrait servir, selon eux, à faire taire les lanceurs d’alerte et « déboucher sur la censure des médias, ce qui serait inacceptable », a prévenu son président, Arthur Moses.

Dans des discussions avec des journalistes à Canberra, retranscrites par le Guardian, Christian Porter a justifié : « Cette loi offre la possibilité au gouvernement de répondre lorsque des organisations comme Facebook laissent diffuser en direct, puis laissent accessibles pendant un long moment » les vidéos tournées par des terroristes. Selon lui, des plates-formes comme YouTube, Facebook et Twitter ne « devraient pas diffuser des extraits de meurtres » dans tous les cas.

Après Christchurch, Facebook avait dit avoir retiré « rapidement » 1,5 million de copies de la vidéo du terroriste, mais en avait laissé également 300 000 en ligne dans les vingt-quatre heures suivant la première diffusion du massacre. YouTube avait également communiqué sur la manière dont il avait tenté d’endiguer la diffusion de la vidéo sur son propre site, évoquant des dizaines de milliers de suppressions.

Ces événements avaient soulevé de nombreuses questions sur les capacités des plus grands réseaux sociaux occidentaux à modérer des meurtres diffusés en direct, ou empêcher la propagande de contenus extrémistes issus de terroristes d’extrême droite.

« Sans consultation »

Les plates-formes ont répondu à cette loi à travers la Digital Industry Group Inc. – une association qui regroupe des grandes entreprises du numérique, incluant Facebook, Google et Twitter. « Cette loi a été conçue et adoptée en cinq jours, sans consultation significative préalable », alors qu’elle traite d’un sujet « hautement complexe », a regretté l’association après adoption du texte. Selon elle, la loi « ne fait rien pour répondre aux problèmes liés aux discours de haine, qui était la principale motivation derrière les tragiques attaques terroristes de Christchurch ».

Ce vote est survenu une semaine après une rencontre entre plusieurs ministres australiens, les fournisseurs d’accès, et des représentants de Facebook, Google et Twitter, pour discuter de ces sujets. Le gouvernement avait communiqué à l’issue de cette rencontre, en disant regretter que Facebook ne présente « aucune solution immédiate pour résoudre les problèmes qui ont été mis en lumière à travers les horreurs survenues à Christchurch ».