« Facebook et Google, notamment, sont désormais sommés d’agir pour maîtriser les comportements de leurs utilisateurs ». | Quentin Hugon / Le Monde

Haro sur les « fake news ». Alors que l’onde de choc de l’élection de Donald Trump résonne encore, l’Europe se mobilise contre les « fausses informations », convaincue qu’elles ont joué un rôle dans la campagne présidentielle américaine et que leurs ombres planent sur les prochains scrutins prévus en France et en Allemagne, sur fond de perte d’influence des médias traditionnels et de craintes quant aux actions de propagande étrangères – notamment russes.

Utile, cette vaste prise de conscience doit se garder de toute simplification. Le phénomène des « fake news » ne date pas d’hier, sa mesure est difficile, la corrélation avec le résultat de la présidentielle américaine ne peut être strictement établie, et le concept même de « fausse information » – qui désigne un contenu délibérément inexact, présenté sous une apparence journalistique – recoupe d’autres réalités, comme l’intoxication à visée politique, le canular, la « réinformation » d’extrême droite, la recherche effrénée du clic et du profit…

Les états voudraient que Facebook ou Google agissent comme des régulateurs et trouvent les moyens de filtrer les contenus

Reste que le constat général est celui d’une expansion du phénomène, portée par l’industrialisation de la fabrication de « fakes », la fragilisation de l’espace public par les communications mensongères, le conspirationnisme et les tenants de la postvérité et, enfin, l’essor spectaculaire des moteurs de recherche et désormais des réseaux sociaux comme moyens d’information.

Les « fake news » se diffusent aujourd’hui beaucoup plus vite et efficacement qu’auparavant – la faute, en partie, aux plates-formes qui privilégient « l’engagement » de leurs utilisateurs, c’est-à-dire le fait qu’ils partagent, commentent, « aiment » des contenus. Et qui donnent donc une prime aux contenus qui émeuvent, choquent, font réagir – photos d’animaux mignons ou mensonges éhontés.

Des plates-formes qui se considèrent neutres

C’est ce parti pris qui est aujourd’hui mis en cause, après que de fausses informations, telles que le soutien du pape à Donald Trump, ont été plus largement lues et partagées que leurs contrepoints véridiques. Facebook et Google, notamment, sont désormais sommés d’agir pour maîtriser les comportements de leurs utilisateurs.

Au Royaume-Uni, la Chambre des communes vient d’ouvrir une enquête parlementaire sur le sujet. La France veut ouvrir des discussions, avec Facebook et Google notamment. En Allemagne, les réseaux sociaux sont menacés d’une loi sanctionnant la diffusion de fausses informations. La Commission européenne réclame elle aussi une action plus déterminée des grandes plates-formes par la voix du commissaire en charge du numérique, Andrus Ansip.

Les pressions commencent aussi, c’est nouveau, à venir de l’intérieur : au sein de Twitter, de Facebook ou de Google, des voix s’élèvent pour demander à ces entreprises de faire plus – et mieux – contre les internautes qui usent et abusent de leur outil pour répandre des mensonges, de la propagande ou des idéologies haineuses.

Mais ces demandes vont à l’encontre de la posture de ces plates-formes qui se considèrent, par essence, neutres : « Nous ne sommes pas des médias », affirment-elles, s’abritant derrière le fait que ce sont des algorithmes qui « choisissent » les contenus mis en avant. Les Etats voudraient que Facebook ou Google agissent comme des régulateurs et trouvent les moyens de filtrer les contenus ; ces derniers considèrent que leur rôle est au mieux de fournir à des tiers des outils de régulation – comme Facebook l’a fait, depuis plusieurs années, sur des sujets comme la prévention du suicide.

Idéologie libertaire

Sous la pression de l’opinion, elles ont toutefois engagé des actions, en partie pour des raisons d’image : label « Fact Check » sur Google News aux Etats-Unis, projet de vérification collective « First Draft » de Google en partenariat avec différents médias, dont Le Monde, système d’alerte aux fausses informations en test chez Facebook. L’autorégulation pour éviter la régulation : la recette est connue.

Efficacité ? L’impression que laissent jusqu’ici ces initiatives est plutôt celle de plates-formes qui veulent montrer qu’elles ne restent pas inactives, mais hésitent à prendre le problème à bras-le-corps. Pour des raisons économiques : embaucher ou financer une armée de modérateurs et de fact checkers mettrait à mal leur modèle, tout comme réduire le volume de contenus en circulation ou brider les utilisateurs.

comme l’expérimentent les internautes en Turquie, en Chine ou ailleurs, la frontière est mince entre le blocage validé démocratiquement par la loi et la censure politique

Mais aussi pour des raisons culturelles : fondées sur une idéologie libertaire, fascinées par le partage libre des connaissances, ces sociétés considèrent que tout ce qui limite la liberté d’expression dans son acception américaine est un danger. Non sans raison : comme l’expérimentent les internautes en Turquie, en Chine ou ailleurs, la frontière est mince entre le blocage validé démocratiquement par la loi et la censure politique.

S’ils doivent assumer une plus grande part de responsabilité, les réseaux sociaux et grands opérateurs du Web font aussi figure de boucs émissaires commodes. Le succès viral d’informations outrageusement fausses ne s’appuie pas seulement sur la puissance des plates-formes de Facebook ou Google, mais aussi sur ce que l’on peut appeler, faute de mieux, « l’envie d’y croire ».

Durant la campagne américaine, des millions d’électeurs ont partagé ces messages parce qu’ils n’accordaient aucune confiance aux médias, toujours suspects de parti pris, ni aux candidats, considérés comme corrompus. La propagande et la désinformation se nourrissent, d’abord et surtout, de cette terrible crise de confiance, face à laquelle représentants politiques et médias doivent faire preuve de la même énergie que celle qu’ils mettent à interpeller les plates-formes.