L’intelligence artificielle n’est plus seulement un outil de défense. Elle est désormais devenue une arme. C’est le constat que formalise IBM en présentant une nouvelle série de solutions destinées à contrer des attaques dites « agentiques », capables d’agir de manière autonome. Une prise de position qui intervient alors que les exemples concrets d’utilisation malveillante de l’IA se multiplient.
Depuis 2024, plusieurs équipes de recherche ont montré que des modèles comme ceux développés dans la lignée de OpenAI ou de Google DeepMind étaient capables d’identifier des vulnérabilités logicielles et de proposer des chaînes d’exploitation complètes. En parallèle, des outils dérivés circulent déjà sur des forums spécialisés, abaissant le niveau technique nécessaire pour lancer des attaques sophistiquées.
Des signaux faibles devenus réalité
Les agences de cybersécurité occidentales ont commencé à tirer la sonnette d’alarme dès 2025. Aux États-Unis, la Cybersecurity and Infrastructure Security Agency évoquait déjà le risque de voir l’IA accélérer les campagnes de phishing et d’ingénierie sociale, en générant des messages indétectables à grande échelle.
En Europe, l’Agence nationale de la sécurité des systèmes d’information a également alerté sur l’utilisation croissante de ces technologies dans les attaques ciblées, notamment contre les entreprises industrielles et les infrastructures critiques.
Dans le même temps, plusieurs incidents ont illustré cette évolution. Des campagnes de fraude reposant sur des deepfakes vocaux ont permis d’usurper l’identité de dirigeants pour déclencher des virements frauduleux. D’autres attaques ont utilisé des modèles génératifs pour produire du code malveillant capable de s’adapter à son environnement.
Une asymétrie qui s’accélère
C’est précisément cette accélération qui inquiète IBM. Dans son analyse, le groupe souligne que les modèles d’IA permettent désormais d’intervenir à chaque étape d’une attaque, de la reconnaissance à l’exploitation, en passant par la dissimulation.
Le résultat est une rupture d’échelle. Là où une attaque sophistiquée nécessitait auparavant des équipes expérimentées, elle peut désormais être automatisée en grande partie. Le temps nécessaire pour compromettre un système se réduit, tandis que le nombre d’attaques potentielles augmente.
« Une attaque alimentée par l’IA nécessite une défense elle-même pilotée par l’IA », estime Mark Hughes, responsable cybersécurité du groupe.
L’industrie se réorganise en urgence
Face à cette mutation, l’ensemble du secteur se réorganise. Microsoft a intégré des capacités d’IA générative dans ses outils de sécurité, notamment via son copilote dédié à la cybersécurité. Google a de son côté renforcé ses offres autour de la détection automatisée des menaces dans le cloud.
Même logique chez les acteurs spécialisés, qui développent des plateformes capables d’analyser des volumes massifs de données en temps réel pour détecter des comportements anormaux.
IBM s’inscrit dans cette tendance avec une double approche : un audit destiné à mesurer l’exposition des entreprises à ces nouvelles menaces, et une plateforme reposant sur des agents d’intelligence artificielle capables de coordonner la réponse en temps réel.
Une bataille qui dépasse les entreprises
Au-delà du monde économique, la question est devenue stratégique pour les États. L’IA est désormais intégrée aux doctrines de cyberdéfense, mais aussi aux stratégies offensives.
Dans un contexte de tensions internationales accrues, notamment entre grandes puissances technologiques, la capacité à exploiter ou à contrer ces outils devient un enjeu de souveraineté.
Parallèlement, l’explosion des besoins en infrastructures pour faire tourner ces modèles soulève d’autres préoccupations. Aux États-Unis, des sénateurs ont récemment demandé davantage de transparence sur la consommation énergétique des centres de données, dont une part croissante est dédiée à l’intelligence artificielle.


