C’est Frances Haugen qui le dit. Cette ingénieure de formation et ancienne gestionnaire de projet chez Facebook affirme que les algorithmes de la société menacent la santé mentale de nos enfants ? mais aussi la nôtre ?, la qualité des débats, la cohésion sociale ou encore la démocratie. Il n’y a là aucune véritable surprise, mais obtenir ce genre d’informations documentées de la part d’une ancienne insider de l’entreprise est une autre affaire.
Cette vérité technique et commerciale, qui se révèle ainsi, doit être expliquée pour tenter de trouver des solutions. Commençons par répondre à la question : pourquoi les algorithmes de la plupart des réseaux sociaux sont-ils une menace ?
L’effet bulle
Pour cerner ce danger, revenons un instant sur les algorithmes qui tournent sur un réseau comme Facebook. Il existe, entre autres, des algorithmes de suggestion de contenus, les posts, par exemple, qui optimisent en théorie deux choses : notre niveau de satisfaction et notre capacité à partager ces contenus en question. Pour atteindre cet objectif, il existe un autre type d’algorithme qu’on appelle de catégorisation implicite, qui consiste à classer les utilisateurs par similarité statistique dans leur comportement ? caractérisé par les données dynamiques de l’utilisateur ? et leur profil ? caractérisé, lui, par les données statiques. Alors que le type de posts aimés et partagés représente le profil dynamique de l’utilisateur ; son âge, son genre ou encore ses amis sur le réseau représentent son profil statique. À partir de cette catégorisation, on suggère à un utilisateur des contenus qu’un autre utilisateur de la même classe a aimé, et qui, en théorie, lui plairont en retour. De la même façon, de nouveaux contacts sont proposés. Le risque d’enfermer les utilisateurs dans des bulles d’opinion et d’observation du monde est alors élevé, polarisant toujours plus les débats.
Une autre composante de l’algorithme de suggestion augmente la visibilité des contenus fortement partagés et aimés, idéalement sur des temps courts, afin d’engager encore plus les utilisateurs dans leur interaction avec l’outil. C’est ainsi que des contenus haineux, polémiques ou transgressifs sont davantage mis en avant et suggérés aux utilisateurs, peu importe leur profil dynamique et statique. On comprend alors le danger d’une telle logique de fonctionnement sur la société, qui se voit divisée et meurtrie.
Pas de fatalité
Ces algorithmes sont le moteur et le carburant du modèle économique des propriétaires de ces réseaux, qui s’appuie sur une connaissance fine de leurs utilisateurs à travers leur consommation croissante de leur application. Contrairement à ce que l’on peut entendre ou lire, il n’y a pas de fatalité. On peut éviter, ou du moins détecter en partie, l’effet bulle, et modifier l’algorithme de suggestion en considérant autre chose que le simple partage rapide et massif de contenus.
C’est une évidence, les propriétaires n’auront d’autres choix que de revoir leur modèle de revenus. Pour cela, les prochaines régulations devront encourager ces acteurs, pour ne pas dire les forcer, à tester massivement leurs algorithmes en cours de développement, ou une fois utilisés par des millions d’individus.
Par Aurélie Jean, dans Le Point