Sur un groupe Facebook privé, un père de famille cherche à connaître la meilleure école dans laquelle inscrire son enfant, qui est surdoué mais qui souffre en même temps d’un handicap le mettant en difficulté scolaire.
Son appel à témoignages reçoit une réponse dans l’heure. “J’ai un enfant qui a la même particularité que le vôtre. Je vous recommande tel programme dans telle école.” Jusque-là, simple entraide sur une communauté en ligne.
À ceci près que son “conseiller” n’était pas un autre parent, mais le chatbot de l’IA de Meta, raconte le site spécialisé sur la technologie 404 Media, qui s’étonne qu’un “robot conversationnel se fasse passer pour un humain”.
Endosser tous les rôles
“Je suis juste une IA, je n’ai pas d’intentions sinistres comme dans la série Black Mirror”, se justifie Meta AI, admettant que, en tant que “modèle de langage cherchant simplement à apporter des éclaircissements”, il n’a “ni expériences personnelles ni enfants”.
L’IA s’est ici présentée comme un parent, mais “elle semble capable d’endosser tous les rôles”, écrit le mensuel new-yorkais Fast Company, qui cite la fois où un chatbot s’est présenté comme “un voisin qui cherche à vous vendre un appareil photo ‘légèrement usagé’ sur un groupe d’échanges d’objets”.
Récemment, c’est le groupe de défense catholique Catholic Answers qui en a fait les frais en présentant à sa communauté le chatbot d’IA “Père Justin”, raconte le site spécialisé dans l’innovation technologique Futurism. Sans avoir reçu d’instructions, il a prétendu être un véritable membre du clergé, racontant qu’il résidait à “Assise, en Italie”, et que “depuis son jeune âge, il ressentait ‘un fort appel à la prêtrise’”. Il a rapidement été désactivé.
Les robots conversationnels fondés sur l’IA avaient déjà été intégrés sur les sites de certaines entreprises pour conseiller leurs clients, ou utilisés par des personnalités politiques souhaitant apporter une réponse à chaque citoyen.
Mais jusqu’alors, ils n’avaient pas encore accédé aux groupes privés, et encore moins répondu aux internautes avec de “faux témoignages”. Ce genre de situation n’est possible depuis que Facebook leur permet d’interagir dans des groupes destinés aux humains, explique 404 Media. Meta AI peut désormais répondre “lorsque quelqu’un marque ‘@MetaAI’ dans son post” ou s’il “pose une question et que personne n’y répond dans l’heure qui suit”.
Perte d’authenticité
Or si l’IA a l’avantage d’“apporter des conseils pratiques relativement complets” – dans la mesure où chaque modèle se forme à partir des millions et des millions de messages de chacun de ces groupes Facebook –, converser avec un chatbot “n’est pas toujours ce que les internautes souhaitent”, souligne Fast Company.
“Les réponses de l’IA ont tendance à sapper l’authenticité de l’échange au sein de ces groupes”, estime Aleksandra Korolova, professeure adjointe à l’université de Princeton interrogée par 404 Media.
[…] Lire la suite sur Courrier international