vendredi, novembre 15, 2024

Les outils d’Intelligence artificielle : une épée à double tranchant pour les enfants

0 commentaire

Il est difficile de maximiser les avantages de l’IA pour l’éducation et la croissance des enfants, tout en assurant leur vie privée, leur développement sain et leur bien-être émotionnel.

En seulement deux ans, l’intelligence artificielle a connu une révolution. Les outils d’intelligence artificielle générateurs comme ChatGPT, Gemini de Google et Copilot de Microsoft sont rapidement devenus partie intégrante de notre vie quotidienne. Avec Meta intégrant des chatbots IA dans des plateformes populaires comme WhatsApp, Facebook et Instagram, la technologie est plus accessible que jamais. Pour outils d’intelligence artificielle grandissant dans ce monde piloté par l’IA, les implications sont à la fois enthousiasmantes et préoccupantes, prévient Anna Collard, vice-présidente principale de la stratégie de contenu et évangéliste chez KnowBe4 AFRICA .

« Ces outils IA offrent des opportunités sans précédent pour l’apprentissage, la créativité et la résolution de problèmes. Les enfants peuvent les utiliser pour créer des œuvres d’art, composer de la musique, écrire des histoires et même apprendre de nouvelles langues grâce à des méthodes interactives passionnantes », explique Collard. « La nature personnalisée des chatbots IA, avec leur capacité à fournir des réponses rapides et des réponses sur mesure, les rend particulièrement attrayants pour les jeunes esprits. »

l’IA apporte avec elle toute une série de risques potentiels que les parents, les éducateurs et les décideurs politiques doivent examiner.

Cependant, comme avec toute technologie transformatrice des problèmes de confidentialité aux dangers de la surconfiance en passant par la propagation de la désinformation et les effets psychologiques possibles, les défis sont importants. « Alors que nous entrons dans cette ère pilotée par l’IA, nous devons peser avec soin le potentiel incroyable contre les risques réels », prévient Collard. « Notre défi est de tirer parti de la puissance de l’IA pour enrichir la vie de nos enfants tout en préservant simultanément leur développement, leur vie privée et leur bien-être général. »

Préoccupations en matière de confidentialité 

 
« Les parents doivent savoir que même s’ils semblent inoffensifs, les chatbots collectent des données et peuvent les utiliser sans consentement approprié, ce qui peut entraîner des violations de la vie privée. »

L’ampleur de ces risques de confidentialité varie grandement. Selon un rapport de l’Autorité canadienne des normes , les menaces vont de problèmes relativement peu importants, comme l’utilisation des données d’un enfant à des fins de publicité ciblée, à des préoccupations plus graves. Parce que les chatbots peuvent suivre les conversations, les préférences et les comportements, ils peuvent créer des profils détaillés des utilisateurs enfants. Lorsqu’ils sont utilisés à des fins malveillantes, ces informations peuvent permettre des tactiques de manipulation puissantes pour répandre la désinformation, la polarisation ou le harcèlement.

Collard souligne en outre que les modèles de langage de grande taille n’ont pas été conçus avec les enfants à l’esprit. Les systèmes d’IA qui alimentent ces chatbots s’entraînent sur d’énormes quantités de données orientées adultes, ce qui peut ne pas tenir compte des protections spéciales nécessaires pour les informations des mineurs.

Surconfiance

Une autre préoccupation pour les parents est que les enfants puissent développer un lien émotionnel avec les chatbots et leur faire trop confiance, alors qu’en réalité, ils ne sont ni humains ni leurs amis. « L’effet de surconfiance est un phénomène psychologique étroitement lié à la théorie de l’équation des médias, qui affirme que les gens ont tendance à anthropomorphiser les machines, c’est-à-dire à leur attribuer des attributs humains et à développer des sentiments pour elles », commente Collard. « Cela signifie aussi que nous surestimions les capacités d’un système IA et lui accordons trop de confiance, devenant ainsi complaisants. »

La surconfiance dans l’IA génératrice peut conduire les enfants à prendre de mauvaises décisions car ils peuvent ne pas vérifier les informations. « Cela peut compromettre la précision et entraîner de nombreux autres résultats négatifs potentiels », explique-t-elle. « Lorsque les enfants s’appuient trop sur leur assistant IA génératif, ils peuvent devenir complaisants dans leur pensée critique, et cela signifie aussi qu’ils peuvent réduire les interactions en face à face avec de vraies personnes. »

Informations inexactes et inappropriées

Les chatbots IA, malgré leur sophistication, ne sont pas infaillibles. « Lorsqu’ils ne savent pas comment répondre, ces outils IA peuvent ‘halluciné’ en inventant une réponse au lieu de dire simplement qu’ils ne savent pas », explique Collard. Cela peut entraîner des problèmes mineurs comme des réponses incorrectes aux devoirs ou, plus grave, donner de mauvais diagnostics aux mineurs qui se sentent malades.

« Les systèmes IA sont formés sur des informations qui incluent des biais, ce qui signifie qu’ils peuvent renforcer ces biais existants et fournir des informations erronées, affectant la compréhension du monde par les enfants », affirme-t-elle.

Du point de vue d’un parent, le danger le plus effrayant de l’IA pour les enfants est l’exposition potentielle à du matériel sexuel nocif. « Cela va des outils IA qui peuvent créer des images deepfake d’eux ou qui peuvent manipuler et exploiter leurs vulnérabilités, les influençant subliminalement à se comporter de manière néfaste », déclare Collard.

Impact psychologique et réduction de la pensée critique

Comme pour la plupart des nouvelles technologies . « Une utilisation excessive des outils IA par les enfants et les adolescents peut entraîner une réduction des interactions sociales, ainsi qu’une diminution de la pensée critique », déclare Collard. « Nous constatons déjà ces effets secondaires psychologiques négatifs chez les enfants à travers une utilisation excessive d’autres technologies comme les réseaux sociaux : une hausse de l’anxiété, de la dépression, de l’agressivité sociale, du manque de sommeil et une perte d’interactions significatives avec les autres. »

Naviguer dans ce nouveau monde courageux est difficile pour les enfants, les parents et les enseignants, mais Collard pense que les décideurs politiques rattrapent leur retard. « En Europe, bien que cela ne concerne pas spécifiquement les enfants, l’AI Act vise à protéger les droits de l’homme en veillant à ce que les systèmes d’IA soient plus sûrs. »

Jusqu’à ce que des garde-fous appropriés soient en place, les parents devront surveiller l’utilisation de l’IA par leurs enfants et contrer leurs effets négatifs en introduisant quelques règles familiales. « En donnant la priorité aux jeux et à la lecture que les enfants ne font pas sur les écrans, les parents aideront à renforcer l’estime de soi de leurs enfants, ainsi que leurs compétences de pensée critique. »