Elon Musk, à travers son initiative « Département de l’efficacité gouvernementale » (DOGE), déploie des outils d’intelligence artificielle (IA) au sein des agences fédérales américaines. Cette démarche suscite de vives inquiétudes, notamment chez les professionnels de l’informatique et de la cybersécurité.
DOGE développe un chatbot d’IA sur mesure pour l’Administration des services généraux (GSA). L’objectif est d’analyser les contrats et les données d’approvisionnement afin d’identifier les tendances de dépenses. Cependant, l’utilisation d’une technologie potentiellement peu fiable, ayant accès à des données sensibles, présente des risques majeurs.
Cette initiative intervient dans un contexte politique particulier. Alors que le président Biden avait signé un décret en 2023 pour encadrer l’utilisation de l’IA, son prédécesseur l’a révoqué dès son entrée en fonction. Cette décision ouvre la voie à une approche moins restrictive, inspirée par la devise de la Silicon Valley : « Bouger vite et casser des choses ». Les recommandations budgétaires de DOGE, basées sur l’IA, reflètent cette stratégie, privilégiant la rapidité au détriment des conséquences potentielles.
Les limites de l’IA actuelle, notamment les inexactitudes factuelles et les risques de fuites de données, en font un outil discutable pour des tâches aussi sensibles. Comme le souligne Wired, Thomas Shedd, un ancien employé de Tesla, a rappelé que la centralisation des données contractuelles n’était pas une idée nouvelle. L’adoption rapide de l’IA par DOGE se heurte déjà à des obstacles : le déploiement d’un outil d’IA générative a été interrompu et l’utilisation d’un assistant de codage a été revue.
Malgré ces revers, DOGE utilise déjà des outils d’IA au sein du ministère de l’Éducation, soulevant des préoccupations quant à la protection des données personnelles. L’efficacité du chatbot de la GSA pour accélérer les réductions budgétaires reste à prouver. Compte tenu des lacunes de cette technologie, des difficultés importantes sont à prévoir.
Le déploiement de l’IA par DOGE dans les agences fédérales américaines soulève des questions cruciales. Les risques liés à l’utilisation d’une technologie encore immature pour des tâches critiques ne doivent pas être négligés. Il est essentiel de trouver un équilibre entre l’innovation et la protection des données sensibles.