Véritable coqueluche de la rentrée 2023, le système interactif ChatGPT a soulevé une vague d’engouement, puis d’interrogations et d’inquiétudes. En très peu de temps, il a rassemblé un million d’utilisateurs et a été testé sur de nombreuses tâches, principalement textuelles : demande d’information, dissertation, génération de fictions, programmation informatique, traduction de textes, écriture de poèmes…
Une des raisons de cette popularité est que ChatGPT a montré des capacités impressionnantes dans de nombreux domaines ainsi que des capacités émergentes, par exemple la génération de code informatique et la génération « multimodale ». Une autre raison est que son interface de dialogue permet aux utilisateurs d’interagir avec un grand modèle de langage sous-jacent GPT3.5 de manière plus efficace et efficiente qu’avant, par le biais de chats interactifs.
Ces résultats ont poussé à se demander si on pouvait utiliser ces grands systèmes de langage à des fins professionnelles, documentaires, scolaires ou encore artistiques. Il est possible que ce type de systèmes transforme certains métiers et qu’il touche en profondeur l’enseignement et l’éducation – les enfants étant particulièrement vulnérables devant ces systèmes.
Une « intelligence »… en apparence seulement
ChatGPT produit des textes quasiment parfaits d’un point de vue grammatical bien qu’il n’ait aucune compréhension de ce qu’il produit. Il a des capacités vraiment étonnantes et certains cas montrés en exemple sont remarquables. Ses textes, souvent complexes, peuvent ressembler aux données originales ayant servi à l’apprentissage et en possèdent certaines caractéristiques.
Mais avec l’apparence du vrai, ces résultats peuvent être parfois totalement faux. Quels sont la nature et le statut de ces paroles artificielles sans raisonnement associé ? La compréhension de la langue naturelle implique des raisonnements complexes et variés, spatiaux, temporels, ontologiques, arithmétiques, basés sur des connaissances et permettant de relier les objets et actions dans le monde réel, ce que ChatGPT est loin d’intégrer n’ayant aucune perception phénoménale.
Si quelques exemples choisis peuvent suggérer que les modèles de langue sont capables de raisonner, ils ne sont en fait capables d’aucun raisonnement logique et n’ont pas d’intuition, pas de pensée, pas d’émotions. ChatGPT s’exprime avec assurance en bon français comme dans d’autres langues après avoir englouti des milliards de données, mais ne comprend rien à ce qu’il dit et peut très facilement générer des fake news, des discriminations, des injustices et amplifier la guerre de l’information.
Comment déceler le vrai du faux : des technos à l’éducation
Ces approches peu transparentes peuvent cependant être évaluées sous de nombreux aspects sur des données existantes (ce sont des benchmarks) pour montrer le manque de performance des systèmes sur des problèmes de raisonnements logiques comme la déduction, l’induction ou l’abduction – ou encore le sens commun.
L’éducation peut s’emparer de ce sujet pour montrer les limites de cette langue artificielle désincarnée, et faire travailler les élèves sur une meilleure compréhension des concepts de la modélisation numérique, de l’apprentissage des machines et l’intelligence artificielle.
Des enfants plus crédules devant les IA
Ceci est particulièrement important car les enfants peuvent être plus particulièrement crédules devant ces systèmes doués de parole comme ChatGPT.
Lauréat du prix Nobel d’économie, l’américain Richard Thaler a mis en lumière en 2008 le concept de « nudge », technique qui consiste à inciter les individus à changer de comportement sans les contraindre et en utilisant leurs biais cognitifs.
De plus, nous avons pu montrer que les jeunes enfants suivaient plus les suggestions de systèmes de dialogue embarqués dans des objets (comme un Google Home ou un robot) que celles d’un humain. Notre démarche de recherche était basée un jeu sur l’altruisme et menée dans le cadre de la chaire IA Humaaine (pour Human-Machine Affective Interaction and Ethics) sur les nudges_ numériques amplifiés par l’IA. Cette chaire interdisciplinaire, sorte de laboratoire d’études des comportements d’interaction humain-machine associe des chercheurs en informatique, linguistique et économie comportementale.
Les agents conversationnels comme ChatGPT pourraient devenir un moyen d’influence des individus. Ils ne sont pour l’instant ni régulés, ni évalués et très opaques. Il est donc important de bien comprendre leur fonctionnement et limites avant de les utiliser, et dans ce cadre, l’école a un grand rôle à jouer.
Pourquoi ChatGPT est-il aussi puissant ?
ChatGPT est un système multilingue multitâche interactif utilisant une IA générative en libre accès sur Internet. Les systèmes d’IA générative s’appuient sur des algorithmes capables d’encoder de gigantesques volumes de données (textes, poèmes, programmes informatiques, symboles) et de générer des textes syntaxiquement corrects pour un grand nombre de tâches.
Les « transformers » sont un de ces types d’algorithmes. Ce sont des réseaux de neurones qui apprennent les régularités les plus saillantes des mots dans de nombreux contextes et sont ainsi capables de prédire le mot ou la séquence susceptible d’être pertinente dans la suite d’un texte donné.
ChatGPT est le successeur du grand modèle de langage (LLM) InstructGPT, auquel a été ajoutée une interface de dialogue. InstructGPT marche mieux que les précédentes approches : en effet, les développeurs ont réussi à mieux mettre en adéquation l’IA générative (de type GPT3.5) avec l’intention de l’utilisateur, et ce sur un large éventail de tâches. Pour cela, ils utilisent l’« apprentissage par renforcement », c’est-à-dire que l’IA apprend aussi des commentaires que les humains font sur ses textes.
Le fait d’augmenter la taille des modèles de langage ne les rend pas intrinsèquement plus aptes à suivre l’intention de l’utilisateur. Ces modèles de langue de grande taille peuvent générer des résultats qui sont mensongers, toxiques ou tout simplement inutiles pour l’utilisateur, car ils ne sont pas alignés sur les intentions de l’utilisateur.
Mais les résultats montrent que le réglage fin grâce à des retours humains est une orientation prometteuse pour aligner les modèles de langage avec l’intention humaine, même si InstructGPT commet encore des erreurs simples.
Ainsi, la performance technologique de ChatGPT provient donc de la taille de l’IA générative utilisant des « transformers » (175 milliards de paramètres), de l’alignement des réponses de l’IA par apprentissage par renforcement mais également de la possibilité de dialoguer avec ce système.
L’impact de ChatGPT sur le marché de la recherche d’information
ChatGPT de Microsoft-OpenAI est une menace pour le modèle d’interrogation de Google par sa puissance de recherche et de production. Google positionne Bard comme un moteur de recherche interactif plus réfléchi et plus précis, qui n’est pas entravé par les problèmes d’actualité rencontrés par ChatGPT puisqu’il a été entraîné sur des données disponibles avant septembre 2021 – et ne connaît donc pas les actualités plus récentes (pour l’instant).
La société chinoise Baidu a également un projet d’IA générative avec Ernie Bot. Le projet « BigScience », créé par HuggingFace et incluant des financements du CNRS et du ministère de la recherche a permis de créer « Bloom », une IA générative utilisant un modèle de langage de 176 milliards de paramètres entraîné sur des données multilingues multitâches et surtout en « science ouverte » ! Ce projet innovant est une coopération public/privé et a embarqué plus de mille chercheurs de nombreux pays. Il pourrait en découler un « ChatBloom ».
Des questions éthiques
Le contexte actuel est marqué par des réalisations et des applications de ces systèmes largement diffusées dont l’impact massif nécessite une réflexion éthique.
Ces IA génératives multilingues, multitâches et interactives posent de nombreuses questions : les données choisies pour les entrainer, la répartition des langues dans un système multilingue, les paramètres d’optimisation des systèmes, la propriété des contenus générés, etc.
De plus, le pouvoir génératif des IA est souvent amplifié par des filtres qui permettent de censurer certains sujets et des modules de déduction logique dans le but de vérifier la véracité des énoncés. Une poignée d’humains (ingénieurs, transcripteurs, évaluateurs) ont créé ce type de système utilisé par des millions de personnes.
Ces systèmes d’intelligence artificielle utilisés massivement posent donc des défis éthiques majeurs parmi lesquels la transformation de la notion de production d’information, le rapport à la vérité et les risques massifs liés à la désinformation et la manipulation.
Pour en savoir plus, retrouvez l’autrice dans « Des robots et des hommes, mythes, fantasmes et réalité », aux éditions Plon et « Les robots émotionnels : et l’éthique dans tout cela ? », aux éditions de l’Observatoire.
Laurence Devillers, Professeur en Intelligence Artificielle, Sorbonne Université
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.