
Dans les allées de la RSA Conference (RSAC), grand-messe mondiale de la cybersécurité, un mot revient désormais avec insistance : “agentique”. Derrière ce terme encore flou pour le grand public se cache une évolution majeure de l’intelligence artificielle — et, potentiellement, un basculement dans la nature même des cyberattaques. Car ces nouvelles IA ne se contentent plus de répondre à des questions. Elles agissent.
Pour comprendre ce qui se joue, il faut repartir d’un point simple. Jusqu’à récemment, les intelligences artificielles comme les chatbots étaient essentiellement réactives : un humain posait une question, l’IA produisait une réponse. Même les systèmes les plus avancés restaient dépendants d’une interaction humaine continue. L’IA agentique change radicalement cette logique.
Une IA agentique est un système capable de poursuivre un objectif de manière autonome. On ne lui demande plus “fais ceci”, mais “atteins ce résultat”. Elle va alors planifier, exécuter, vérifier, corriger et enchaîner des actions, parfois en interagissant avec plusieurs outils, logiciels ou systèmes externes. En pratique, cela signifie qu’une IA peut désormais réserver des services, écrire du code, analyser des données, prendre des décisions simples — et surtout, agir sans validation humaine à chaque étape.
C’est précisément cette autonomie qui fascine… et qui inquiète.
Car ce qui est une révolution en productivité devient aussi une révolution en matière d’attaque. À la RSAC, de nombreux experts ont insisté sur ce point : l’IA agentique transforme l’attaquant isolé en opérateur assisté, voire en superviseur d’un système capable de mener des opérations complexes à grande échelle.
Prenons un exemple concret. Hier, une tentative de phishing nécessitait une préparation humaine : rédaction du message, ciblage, envoi, suivi. Demain, un agent IA pourra identifier automatiquement des cibles crédibles sur les réseaux sociaux, générer des messages personnalisés, interagir en temps réel avec la victime, ajuster son discours en fonction des réponses, et pousser jusqu’à l’obtention d’un accès ou d’une information sensible. Le tout de manière industrialisée.
L’usurpation d’identité franchit ainsi un nouveau seuil. Grâce à la combinaison de l’IA générative (voix, texte, image) et de l’IA agentique, il devient possible de simuler une personne sur la durée, avec cohérence et mémoire contextuelle. Ce n’est plus un simple faux email. C’est une présence crédible, persistante, qui peut manipuler, convaincre, insister, contourner les doutes.
Autre terrain d’inquiétude majeur : les chaînes logicielles, ou “software supply chain”. Déjà fragilisées par leur complexité, elles deviennent une cible idéale pour des agents capables de cartographier automatiquement des dépendances, identifier des vulnérabilités, tester des points d’entrée et exploiter des failles sans intervention humaine directe. Là où un attaquant devait auparavant avancer étape par étape, un agent peut explorer simultanément des dizaines de pistes.
Le risque ne vient pas seulement de la puissance brute, mais de la vitesse et de l’échelle. Une attaque qui prenait des jours peut être compressée en minutes. Une campagne ciblée peut devenir massive sans perte de précision. Et surtout, les défenses traditionnelles — souvent basées sur des signatures ou des comportements connus — peinent à suivre des systèmes capables de s’adapter en temps réel.
Face à cela, les entreprises de cybersécurité n’ont pas tardé à réagir. À la RSAC, une tendance claire s’est imposée : la montée en puissance d’une “cyberdéfense augmentée par IA”, elle aussi de plus en plus agentique. Les éditeurs promettent des SOC automatisés, des réponses aux incidents orchestrées par des agents, des systèmes capables de détecter, analyser et neutraliser des menaces sans intervention humaine immédiate.
Autrement dit, une guerre d’agents est en train de s’installer.
D’un côté, des attaquants capables de déployer des IA autonomes pour infiltrer, manipuler et exploiter. De l’autre, des défenseurs qui cherchent à automatiser la détection et la réponse pour tenir le rythme. Cette dynamique alimente un marché en pleine explosion. Comme le souligne Forbes, l’IA n’est pas seulement un risque : c’est aussi une opportunité commerciale massive pour les acteurs de la sécurité, qui multiplient les offres dédiées à la protection des systèmes d’IA eux-mêmes et à la défense contre des attaques pilotées par IA.
Cette accélération pose cependant une question de fond : le système devient-il trop complexe pour être réellement maîtrisé ?
Car introduire des agents autonomes dans des environnements critiques revient à déléguer une partie du contrôle à des systèmes dont le comportement peut être difficile à anticiper. Un agent mal configuré, compromis ou manipulé peut devenir lui-même un vecteur d’attaque. La frontière entre outil et menace devient alors particulièrement floue.
C’est pourquoi la question de l’identité revient au cœur des discussions. Qui agit ? Au nom de qui ? Avec quels droits ? Dans un monde où des agents logiciels peuvent prendre des décisions et exécuter des actions, la gestion des identités — humaines et non humaines — devient un enjeu central. Un agent compromis avec des droits élevés peut faire autant de dégâts qu’un administrateur malveillant.
Autre sujet critique : la gouvernance. Qui est responsable des actions d’un agent ? Comment auditer ses décisions ? Comment garantir qu’il respecte des règles de sécurité dans des environnements dynamiques ? À mesure que les agents deviennent plus autonomes, ces questions ne sont plus théoriques. Elles deviennent opérationnelles.
Dans ce contexte, certaines voix appellent à ralentir. À encadrer plus strictement le déploiement de ces technologies. À imposer des garde-fous. Mais la réalité du marché est différente. La pression concurrentielle pousse les entreprises à adopter ces outils pour gagner en efficacité. Et les acteurs malveillants, eux, n’attendront pas.
C’est ce déséquilibre qui inquiète le plus. L’histoire de la cybersécurité montre que les attaquants exploitent souvent plus rapidement les nouvelles technologies que les défenseurs ne les sécurisent. L’IA agentique pourrait amplifier ce phénomène.
Pour autant, il serait excessif de ne voir dans cette évolution qu’une menace. Bien utilisée, l’IA agentique peut aussi améliorer considérablement la posture de sécurité. Automatiser des tâches répétitives, analyser des volumes massifs de données, détecter des anomalies faibles, réagir plus vite à des incidents : autant de capacités essentielles dans un environnement où les attaques sont de plus en plus nombreuses et sophistiquées.
Le véritable enjeu n’est donc pas l’IA en elle-même, mais la manière dont elle est intégrée.
Apple, Microsoft, Google et d’autres travaillent déjà à intégrer ces capacités dans leurs plateformes. Les éditeurs de sécurité investissent massivement. Les entreprises expérimentent. Et les régulateurs commencent à s’y intéresser.
Mais une chose est déjà certaine : avec l’IA agentique, la cybersécurité change de dimension.
On ne protège plus seulement des systèmes contre des humains. On protège des systèmes contre d’autres systèmes capables d’agir, de décider et d’apprendre.
Et dans ce nouveau paysage, la question n’est plus seulement de savoir si une attaque est possible.
Mais si elle peut être lancée, exécutée et adaptée… sans aucun humain aux commandes.
En savoir plus sur GDL T&C
Subscribe to get the latest posts sent to your email.