Face aux défis de la modération en ligne, certains appellent à lutter contre la viralité des contenus haineux et de désinformation, plutôt que de chercher à les faire disparaître à tout prix.
Trois semaines avant l’élection présidentielle américaine, Twitter a modifié le fonctionnement de son outil le plus emblématique : le retweet. Plutôt que d’appuyer sur un bouton pour partager le message d’une autre personne, il faut dorénavant cliquer sur… deux boutons. Anodin ? Pas tant que ça. L’objectif d’un réseau social est de proposer une expérience fluide, sans accroc, pour que nous passions le plus de temps possible sur leur plateforme. En compliquant (un peu) le retweet, Twitter a assumé, au contraire, d’ajouter de la friction dans cette expérience.
Lire aussi: Les internets en furie
Le concept de friction est souvent invoqué pour lutter contre notre addiction aux nouvelles technologies. Le but : créer de petits obstacles numériques pour nous faire réfléchir, rien qu’une demi-seconde. Ai-je vraiment envie de m’inscrire à ce service, de lui céder mes données ? Cette stratégie du grain de sable peut aussi s’appliquer au domaine de la modération en ligne. Lorsque Twitter a modifié ses retweets, c’était pour ralentir la désinformation sur son réseau, qui se nourrit de messages partagés en masse. Sur le même thème, lorsqu’un utilisateur de Twitter veut relayer un article sans l’avoir lu, le réseau social l’encourage désormais à cliquer sur le lien en question. On peut aussi citer l’exemple de WhatsApp, propriété de Facebook, qui a limité le nombre de personnes à qui l’on peut transférer un message d’un clic, toujours pour lutter contre les campagnes de désinformation.
Ralentir le Web
La modération des réseaux sociaux est une vaste tâche, avec des résultats souvent insatisfaisants. Les modérateurs ne sont pas assez nombreux, leurs conditions de travail déplorables, leurs décisions parfois opaques. S’ajoute, en outre, le casse-tête de définir quel type de contenu a le droit de rester en ligne, avec les risques de censure que cela pose. Partout dans le monde, les textes sur la modération se multiplient, renforçant la pression, et parfois les injonctions contradictoires, sur les plateformes.
Certains experts prônent donc une nouvelle voie : et si la course à la suppression de chaque contenu problématique était vaine ? Et si la responsabilité des plateformes ne tenait pas qu’à la nature des contenus qu’elles hébergent, mais aussi à leur propagation ? En bâtissant des algorithmes qui récompensent les réactions fortes, pour s’assurer de notre attention, les réseaux sociaux n’ont-ils pas construit des machines de haine virale ? «Lorsqu’on lutte contre une épidémie, on cherche généralement à freiner le départ de la contagion. Puis il y a un point de basculement, et on perd le contrôle. C’est le même principe pour la propagation des messages haineux sur les réseaux sociaux», explique Dominique Boullier, auteur de Comment sortir de l’emprise des réseaux sociaux (éditions du Passeur). Pour ralentir le Web, le chercheur imagine par exemple la mise en place d’un quota de messages que l’on peut publier par jour. L’idée est de pousser les internautes à hiérarchiser eux-mêmes ce qu’ils veulent partager, en faisant le pari qu’ils choisiront des contenus qui leur importent vraiment, plutôt que de la haine. «De cette manière, on ne touche pas à la liberté d’expression, mais on limite la liberté de propagation, résume Dominique Boullier. Si vous propagez des contenus à grande échelle, vous êtes alors un média, avec les responsabilités que cela implique.»
Economie de l’attention
Au niveau politique, l’idée de la modération friction fait aussi son chemin, vue comme un complément à une logique plus classique de suppression des contenus problématiques, à l’image de la loi Avia en France (largement retoquée par le Conseil constitutionnel en juin pour atteinte à la liberté d’expression). «La modération est un puits sans fond. Une bataille de retrait de contenus, sans réflexion sur le design des réseaux, ne peut qu’échouer car la haine s’adapte, estime Henri Verdier, ambassadeur de la France pour le numérique. Bien sûr, il faut supprimer des contenus sur certains sujets, le harcèlement et les menaces directes notamment, mais la solution ne peut pas se limiter à ça.» En Europe, la lutte contre la viralité des contenus problématiques pourrait être abordée dans le cadre des négociations actuelles autour du Digital Services Act (DSA), un paquet législatif qui vise à imposer de nouvelles obligations aux plateformes face aux contenus illégaux.
Lire aussi: Restrictions d’accès à Internet : ISF menace de porter plainte contre les autorités tchadiennes
Reste que les exemples de friction employée à des fins de modération sont encore rares. Pour cause : cette stratégie remet en cause la nature même du modèle économique de ces plateformes, fondé sur l’économie de l’attention. «Le paradigme de la modération des contenus est de décharger les plateformes de leurs responsabilités mais aussi, en un sens, de nous décharger de notre devoir de bien nous comporter», conclut Sarah T. Roberts, chercheuse américaine et autrice de Derrière les écrans (éditions La Découverte), une enquête très fouillée sur les modérateurs du Web. «Créer des techniques qui nous forcent à faire une pause, à réfléchir à nos actions, c’est mettre l’utilisateur au cœur d’un processus qui était jusqu’ici invisible.»
Par Lucie Ronfaut, Libération