IA et agents IA : un changement de donne pour la cybersécurité et la cybercriminalité

Intelligence artificielle et agents IA : un changement de donne pour la cybersécurité et la cybercriminalité

Plus la portée d’une IA grâce aux intégrations et à l’automatisation est large, plus la menace potentielle qu’elle devienne malveillante est grande, ce qui rend une surveillance robuste, des mesures de sécurité et une gouvernance éthique de l’IA essentielles pour atténuer ces risques.

En 2025, les chercheurs prévoient que les agents d’IA, ou systèmes autonomes pilotés par l’IA, capables d’effectuer des tâches complexes avec un minimum d’intervention humaine, révolutionneront à la fois les cyberattaques et les défenses de cybersécurité. Alors que les chatbots basés sur l’IA existent depuis un certain temps, les agents IA vont au-delà de simples assistants, fonctionnant comme des agents numériques auto-apprenants qui planifient, exécutent et s’adaptent en temps réel. Ces progrès ne se contentent pas d’améliorer les tactiques cybercriminelles : ils peuvent également changer fondamentalement le champ de bataille de la cybersécurité.

Comment les cybercriminels utilisent l’IA comme arme : le nouveau paysage des menaces

L’IA transforme la cybercriminalité en lançant des attaques plus évolutif, efficace et accessible. Le Rapport du WEF sur l’intelligence artificielle et la cybersécurité (2025) souligne comment l’IA a démocratisé les cybermenaces, permettant aux attaquants d’automatiser l’ingénierie sociale, d’étendre les campagnes de phishing et de développer des logiciels malveillants pilotés par l’IA. De même, le Navigateur de sécurité Orange Cyberdéfense 2025 met en garde contre la cyber-extorsion basée sur l’IA, la fraude profonde et les techniques d’IA contradictoires. Et le Rapport sur l’état des logiciels malveillants 2025 par Malwarebytes, bien que GenAI ait amélioré l’efficacité de la cybercriminalité, il n’a pas encore introduit de méthodes d’attaque entièrement nouvelles : les attaquants s’appuient toujours sur le phishing, l’ingénierie sociale et la cyber-extorsion, désormais amplifiées par l’IA. Cependant, cela est appelé à changer avec la montée en puissance des agents d’IA – des systèmes d’IA autonomes capables de planifier, d’agir et d’exécuter des tâches complexes – ce qui a des implications majeures pour l’avenir de la cybercriminalité.

Voici une liste de cas d’utilisation (abusive) courants de l’IA par les cybercriminels :

Phishing et ingénierie sociale générés par l’IA

L’IA générative et les grands modèles linguistiques (LLM) permettent aux cybercriminels de créer des e-mails de phishing plus crédibles et plus sophistiqués dans plusieurs langues, sans les signaux d’alarme habituels comme une mauvaise grammaire ou des fautes d’orthographe. Le spear phishing piloté par l’IA permet désormais aux criminels de personnaliser les escroqueries à grande échelle, en ajustant automatiquement les messages en fonction de l’activité en ligne d’une cible. Les escroqueries BEC (Business Email Compromise) basées sur l’IA se multiplient, car les attaquants utilisent des e-mails de phishing générés par l’IA et envoyés à partir de comptes internes compromis pour renforcer leur crédibilité. L’IA automatise également la création de faux sites Web de phishing, d’attaques de points d’eau et d’escroqueries par chatbot, qui sont vendues sous la forme d’offres de logiciels criminels alimentés par l’IA en tant que service, réduisant encore davantage les barrières à l’entrée de la cybercriminalité.

Fraude et usurpation d’identité améliorées par Deepfake

Les escroqueries audio et vidéo Deepfake sont utilisées pour usurper l’identité de dirigeants d’entreprise, de collègues ou de membres de la famille afin de manipuler les victimes pour qu’elles transfèrent de l’argent ou révèlent des données sensibles. Le plus célèbre L’incident de 2024 était celui de la société d’ingénierie Arup basée au Royaume-Uni qui a perdu 25 millions de dollars après qu’un de ses employés basé à Hong Kong ait été trompé par de faux dirigeants lors d’un appel vidéo. Les attaquants utilisent également la technologie vocale deepfake pour se faire passer pour des proches ou des dirigeants en détresse, exigeant des transactions financières urgentes.

Attaques cognitives

Manipulation en ligne, telle que définie par Susser et al. (2018) – est « à la base, une influence cachée – la subversion secrète du pouvoir de décision d’une autre personne ». Les attaques cognitives basées sur l’IA élargissent rapidement la portée de la manipulation en ligne, exploitant les plateformes numériques et les acteurs parrainés par l’État utilisent de plus en plus l’IA générative pour créer de faux contenus hyperréalistes, façonnant subtilement la perception du public tout en échappant à la détection. Ces tactiques sont déployées pour influencer les élections, propager la désinformation et éroder la confiance dans les institutions démocratiques. Contrairement aux cyberattaques classiques, les attaques cognitives ne compromettent pas seulement les systèmes : elles manipulent les esprits, orientant subtilement les comportements et les croyances au fil du temps, à l’insu de la cible. L’intégration de l’IA dans les campagnes de désinformation augmente considérablement l’ampleur et la précision de ces menaces, les rendant plus difficiles à détecter et à contrer.

Les risques de sécurité liés à l’adoption du LLM

Au-delà de l’utilisation abusive par les acteurs malveillants, l’adoption par les entreprises des chatbots IA et des LLM introduit ses propres risques de sécurité importants, en particulier lorsque des interfaces IA non testées connectent l’Internet ouvert à des systèmes back-end critiques ou à des données sensibles. Les systèmes d’IA mal intégrés peuvent être exploités par des adversaires et activer de nouveaux vecteurs d’attaque, notamment des attaques par injection rapide, par évasion de contenu et par déni de service. L’IA multimodale étend encore ces risques, permettant à des commandes malveillantes cachées dans les images ou l’audio de manipuler les sorties.

De plus, de nombreux LLM modernes fonctionnent désormais comme des systèmes de génération augmentée de récupération (RAG), extrayant dynamiquement des données en temps réel provenant de sources externes pour améliorer leurs réponses. Bien que cela améliore la précision et la pertinence, cela introduit également des risques supplémentaires, tels que l’empoisonnement des données, la propagation de fausses informations et une exposition accrue aux surfaces d’attaque externes. Une source compromise ou manipulée peut influencer directement les résultats générés par l’IA, conduisant potentiellement à des recommandations incorrectes, biaisées, voire nuisibles, dans les applications critiques de l’entreprise.

De plus, les biais au sein des LLM posent un autre défi, car ces modèles apprennent de vastes ensembles de données qui peuvent contenir des biais biaisés, obsolètes ou nuisibles. Cela peut conduire à des résultats trompeurs, à des prises de décision discriminatoires ou à des jugements erronés en matière de sécurité, ce qui pourrait potentiellement exacerber les vulnérabilités au lieu de les atténuer. À mesure que l’adoption du LLM se développe, des tests de sécurité rigoureux, un audit des biais et une évaluation des risques, en particulier dans les modèles basés sur RAG, sont essentiels pour prévenir l’exploitation et garantir une prise de décision fiable et impartiale basée sur l’IA.

Quand l’IA devient Rogue : les dangers des agents autonomes

Les systèmes d’IA étant désormais capables de s’auto-répliquer, comme le démontre un étude récente, le risque de propagation incontrôlée de l’IA ou d’IA malveillante – des systèmes d’IA qui agissent contre les intérêts de leurs créateurs, de leurs utilisateurs ou de l’humanité dans son ensemble – augmente. Les chercheurs en sécurité et en IA ont exprimé leur inquiétude quant au fait que ces systèmes malveillants peuvent survenir accidentellement ou de manière malveillante, en particulier lorsque des agents d’IA autonomes ont accès aux données, aux API et aux intégrations externes. Plus la portée d’une IA grâce aux intégrations et à l’automatisation est large, plus la menace potentielle qu’elle devienne malveillante est grande, ce qui rend une surveillance robuste, des mesures de sécurité et une gouvernance éthique de l’IA essentielles pour atténuer ces risques.

L’avenir des agents IA pour l’automatisation de la cybercriminalité

Un changement plus perturbateur dans la cybercriminalité peut et viendra des agents IA, qui transforment l’IA d’un assistant passif en un acteur autonome capable de planifier et d’exécuter des attaques complexes. Google, Amazon, Meta, Microsoft et Salesforce développent déjà l’IA agentique à des fins professionnelles, mais entre les mains des cybercriminels, ses implications sont alarmantes. Ces agents d’IA peuvent être utilisés pour rechercher de manière autonome les vulnérabilités, exploiter les faiblesses de sécurité et exécuter des cyberattaques à grande échelle. Ils peuvent également permettre aux attaquants d’extraire d’énormes quantités de données personnelles sur les plateformes de médias sociaux et de rédiger et d’envoyer automatiquement de fausses demandes de direction aux employés ou d’analyser les dossiers de divorce dans plusieurs pays pour identifier les individus destinés à des escroqueries amoureuses basées sur l’IA, orchestrées par un agent d’IA. Ces tactiques de fraude basées sur l’IA ne se contentent pas d’étendre les attaques : elles les rendent plus personnalisées et plus difficiles à détecter. Contrairement aux menaces GenAI actuelles, Agentic AI a le potentiel d’automatiser des opérations entières de cybercriminalité, amplifiant considérablement le risque.

Comment les défenseurs peuvent utiliser l’IA et les agents IA

Les organisations ne peuvent pas se permettre de rester passives face aux menaces liées à l’IA et les professionnels de la sécurité doivent se tenir au courant des derniers développements. Voici quelques-unes des opportunités liées à l’utilisation de l’IA pour se défendre contre l’IA :

Détection et réponse aux menaces basées sur l’IA :

Les équipes de sécurité peuvent déployer l’IA et les agents IA pour surveiller les réseaux en temps réel, identifier les anomalies et répondre aux menaces plus rapidement que les analystes humains ne le peuvent. Les plates-formes de sécurité basées sur l’IA peuvent automatiquement corréler de grandes quantités de données pour détecter des modèles d’attaque subtils qui autrement pourraient passer inaperçus, créer une modélisation dynamique des menaces, une analyse du comportement du réseau en temps réel et une détection profonde des anomalies. Par exemple, comme l’ont souligné les chercheurs de Cyberdéfense Orange, la détection des menaces assistée par l’IA est cruciale, car les attaquants utilisent de plus en plus des techniques de « vivre de la terre » (LOL) qui imitent le comportement normal des utilisateurs, ce qui rend plus difficile pour les équipes de détection de distinguer les menaces réelles des activités bénignes. En analysant les demandes répétitives et les modèles de trafic inhabituels, les systèmes basés sur l’IA peuvent identifier rapidement les anomalies et déclencher des alertes en temps réel, permettant ainsi des réponses défensives plus rapides.

Cependant, malgré le potentiel des agents IA, les analystes humains restent essentiels, car leur intuition et leur adaptabilité sont essentielles pour reconnaître les modèles d’attaque nuancés et exploiter les incidents réels et les informations organisationnelles pour hiérarchiser efficacement les ressources.

Prévention automatisée du phishing et de la fraude

Les solutions de sécurité de la messagerie basées sur l’IA peuvent analyser les modèles linguistiques et les métadonnées pour identifier les tentatives de phishing générées par l’IA avant qu’elles n’atteignent les employés, en analysant les modèles d’écriture et les anomalies comportementales. L’IA peut également signaler un comportement inhabituel de l’expéditeur et améliorer la détection des attaques BEC. De même, les algorithmes de détection peuvent aider à vérifier l’authenticité des communications et à prévenir les escroqueries par usurpation d’identité. Les outils d’analyse biométrique et audio basés sur l’IA détectent les médias deepfake en identifiant les incohérences vocales et vidéo. *Cependant, la détection des deepfakes en temps réel reste un défi, à mesure que la technologie continue d’évoluer.

Éducation des utilisateurs et formation de sensibilisation à la sécurité basée sur l’IA 

Les plates-formes basées sur l’IA (par exemple, AIDA de KnowBe4) proposent une formation personnalisée de sensibilisation à la sécurité, simulant des attaques générées par l’IA pour informer les utilisateurs sur l’évolution des menaces, aidant les employés à reconnaître les contenus trompeurs générés par l’IA et à renforcer leurs facteurs de susceptibilité et leurs vulnérabilités individuelles.

Contre-mesures contradictoires en matière d’IA 

Tout comme les cybercriminels utilisent l’IA pour contourner la sécurité, les défenseurs peuvent recourir à des techniques d’IA adverses, par exemple en déployant des technologies de tromperie, telles que des pots de miel générés par l’IA, pour tromper et suivre les attaquants, ainsi qu’en formant en permanence des modèles d’IA défensifs pour reconnaître et contrecarrer l’évolution des schémas d’attaque.

Utiliser l’IA pour lutter contre la désinformation et les escroqueries basées sur l’IA 

Les outils basés sur l’IA peuvent détecter les textes synthétiques et les fausses informations, facilitant ainsi la vérification des faits et la validation des sources. Les modèles de détection de fraude peuvent analyser les sources d’information, les transactions financières et les médias générés par l’IA pour signaler les tentatives de manipulation. Des contre-attaques, comme le montre un projet de recherche Contre-nuage ou agent IA d’O2 Telecoms « Marguerite » montrez comment les robots basés sur l’IA et les chatbots vocaux en temps réel deepfake peuvent être utilisés pour contrer les campagnes de désinformation ainsi que les fraudeurs en les engageant dans des conversations sans fin pour leur faire perdre du temps et réduire leur capacité à cibler de vraies victimes.

Dans un avenir où les attaquants et les défenseurs utilisent l’IA, les défenseurs doivent être conscients du fonctionnement de l’IA adverse et de la manière dont l’IA peut être utilisée pour se défendre contre leurs attaques. Dans cet environnement en évolution rapide, les organisations doivent se prémunir contre leur plus grand ennemi : leur propre complaisance, tout en envisageant de manière réfléchie et délibérée des solutions de sécurité basées sur l’IA. Plutôt que de se précipiter pour adopter le prochain outil de sécurité de l’IA, les décideurs devraient évaluer soigneusement les défenses basées sur l’IA pour s’assurer qu’elles correspondent à la sophistication des menaces émergentes de l’IA. Le déploiement hâtif de l’IA sans évaluation stratégique des risques pourrait introduire de nouvelles vulnérabilités, rendant une approche consciente et mesurée essentielle pour garantir l’avenir de la cybersécurité.

Pour garder une longueur d’avance dans cette course aux armements numériques alimentée par l’IA, les organisations doivent :

✅Surveillez à la fois le paysage des menaces et celui de l’IA pour rester au courant des derniers développements des deux côtés.
✅ Formez fréquemment les employés aux dernières menaces basées sur l’IA, notamment les deepfakes et le phishing généré par l’IA.
✅ Déployez l’IA pour une cyberdéfense proactive, notamment en matière de renseignements sur les menaces et de réponse aux incidents.
✅ Testez en permanence vos propres modèles d’IA contre les attaques adverses pour garantir la résilience.

 

Par Anna Collard, vice-présidente principale de la stratégie de contenu et évangéliste KnowBe4 Africa .

 

Socialnetlink

Retrouvez toute l'actu Tech et des Nouveaux Médias en Afrique  sur Socialnetlink.

Évènements à venir