Pour Facebook, tous les contenus se valent

« Le Crible médias »

Vous venez de lire, depuis un post Facebook, un article paru dans les pages du Monde sur le projet de loi sur le numérique, et le réseau social en conclut que vous adorerez tout aussi bien un contenu sponsorisé par Google, maître du Big Data ?

Par le même chemin, vous avez lu, dans Le Huff Post, un papier sur la décision prise par Patrick Pelloux de mettre un terme à ses chroniques dans Charlie Hebdo,  et voilà que la plate-forme vous recommande en toute candeur de poursuivre votre expérience de lecture « sur le sujet » par une vidéo complotiste, où l’on voit François Hollande être tenu responsable des attentats de Janvier ?

URLs liées

Pour le réseau social, rien de choquant. Aux yeux de Facebook, tout est contenu, et tous les contenus se valent. L’algorithme fonctionne par association de mots-clefs, si bien qu’il est fréquemment probable qu’il me propose des liens vers des textes ou vers des vidéos qui colportent des propos ahurissants. Le jeu du référencement abolit toute  différence de traitement entre un billet rédigé par un journaliste, — relu, à la rédaction, par un(e) SR et un(e) chef de service,  et une vidéo explosée d’incohérences et d’images crues montée dans la cave d’un groupuscule, pourvu qu’un même mot tienne liées les deux « URLs ».

Comment s’étonner encore si, depuis quelques années, les pseudo-thèses complotistes et déclin-istes se propagent dans l’opinion en France aussi aisément qu’un cachet se dissout dans l’eau claire ? Facebook leur a fait gratuitement passé la frontière qui sépare le délire de la raison.

Alors, pourquoi n’y a t-i l pas d’instance régulatrice, qui agirait telle un correctif de l’algorithme au sein de l’entreprise américaine Facebook ? Tout simplement parce-que le site de Marc Zuckerberg obéit au fameux leitmotiv libéral, poussé à son extrême : « laisser faire, laisser passer ».

Algorithme invisible et « freedom of visibility »

En imposant à ses utilisateurs des recommandations de lecture sans distanciation,  Facebook nous pousse à un faux débat, qui est celui de savoir si toutes les opinions se valent, ou s’il faut apporter davantage de crédit à certaines qu’à d’autres. « Freedom of speech » se traduit ainsi par « freedom of visibilitY ».

Or, peut-on considérer que les vérités fausses ont le même statut que des opinions ? Par exemple, la phrase « François Hollande a commandité les attentats de Charlie Hebdo et de l’Hyper Casher pour stimuler sa cote de popularité. » a t-elle la même valeur que l’énoncé « François Hollande manque d’efficacité pour résorber le chômage dans le pays. » ? Assurément, non. La première proposition est un mensonge politique, qui demande à être cru, alors que la seconde est une opinion politique, qui s’ouvre à la discussion. Les constructions complotistes et les appels à la haine revendiquent un mépris de la démocratie; tandis-que les points de vue sur la politique intérieure d’un pays sont une manière de faire vivre la démocratie.

Il y a donc urgence de réguler Facebook, non pas seulement en censurant les contenus répréhensibles par la loi des États, mais en s’attaquant enfin à cet algorithme invisible, qui est entrain de saper la démocratie sans que les citoyens ne s’en aperçoivent et soient en mesure de lutter contre.

Le projet de  loi sur le numérique, voulu par le gouvernement français, a l’ambition d’accompagner la société dans sa transition numérique. Le texte, conçu après de nombreuses consultations populaires organisées à l’aide d’un outil de participation en ligne, est une innovation en matière de démocratie. Il Il serait intéressant de voir si la loi consacrera un volet à l’algorithme de recommandation des réseaux sociaux.

 

The following two tabs change content below.
Clara Schmelck
Clara-Doïna Schmelck, journaliste, philosophe des médias. Rédactrice en chef adjointe d'Intégrale - est passée par la rédaction de Socialter ; chroniqueuse radio, auteur, intervenante en école de journalisme et de communication (Celsa ...).

Vous pouvez également lire