Facebook a réduit, ces derniers mois, la diffusion de contenus à caractère violent, haineux ou sexuel notamment grâce au déploiement d’un logiciel fondé sur l’intelligence artificielle capable d’établir des liens entre messages, images, ou commentaires.
Jusqu’ici, le système de détection du réseau social ne permettait d’analyser qu’un contenu à la fois, sans pouvoir croiser les signaux provenant, par exemple, d’un message et d’une photo.
Avec le nouvel algorithme, déployé courant 2020, Facebook peut désormais avoir « une vision d’ensemble », a expliqué mercredi Mike Schroepfer, responsable technique de la plateforme, lors d’une conférence téléphonique.
Le réseau social peut notamment mieux décrypter le sens des « mèmes », images ou animations le plus souvent à but humoristique, qui ont parfois un caractère haineux ou discriminant compréhensible uniquement en associant le texte à l’image.
« Il faut comprendre tout le contexte » pour analyser et éventuellement écarter le message, a détaillé Mike Schroepfer, qui a expliqué que le logiciel était aussi en mesure de croiser des contenus dans plusieurs langues.
L’outil informatique évite aussi le retrait de certains messages qui auraient déclenché une alerte auparavant sur la base d’un mot ou d’une image identifiés trop littéralement.
Facebook attribue en partie à ce système la baisse de la diffusion de contenus douteux sur son site. Les indicateurs trimestriels publiés mercredi mesurent le nombre de fois que ces contenus sont vus et non leur nombre sur le site.
Au premier trimestre, entre 0,05% et 0,06% des contenus vus par les utilisateurs de Facebook avaient un caractère haineux contre une fourchette de 0,07% à 0,08% au quatrième trimestre 2020 et de 0,10% à 0,11% au troisième trimestre de la même année.
Le réseau social est aussi intervenu sur 34,3 millions de contenus violents ou choquants, contre 15,9 au quatrième trimestre 2020.
Le logiciel autorise désormais à aller « au-delà d’un seul message » et identifier une tendance à l’échelle de tout un groupe Facebook, a expliqué Mike Schroepfer.
Facebook a régulièrement été accusé de ne pas faire suffisamment pour modérer les contenus qui circulent sur sa plateforme.
Depuis mai 2018, il publie des indicateurs trimestriels illustrant sa politique de contrôle des contenus parasites, haineux, violents, à caractère sexuel, de « propagande terroriste », et des faux comptes.
Avec Afp