Comprendre le risque des agents autonomes (OpenClaw)
Depuis environ deux ans, les entreprises voient évoluer leur architecture de sécurité. Alors que les équipes informatiques continuent de surveiller les vulnérabilités classiques et de lutter contre les ransomwares courants, un nouveau type de menace apparaît : l’accès autonome. Ce phénomène, parfois appelé IA agentique, flux de travail automatisés ou simplement agents autonomes, permet à des systèmes logiciels d’interagir directement avec des données sensibles sans nécessiter d’approbation humaine à chaque étape.
Le terme largement utilisé dans la communauté de la sécurité pour désigner ce problème est OpenClaw. Selon l’institut SANS, les agents OpenClaw représentent « la plus grande expansion de la surface d’attaque depuis la migration vers l’infrastructure cloud »1. Le rapport 2025 sur l’état des menaces liées à l’identité indique que jusqu’à deux tiers des organisations déploient des agents d’IA ayant accès à des données critiques sans avoir mis en place les contrôles de sécurité essentiels2.
Pourquoi la surface d’attaque s’agrandit
Les données de la Cloud Security Alliance (CSA) montrent que les systèmes automatisés, y compris les agents IA, génèrent désormais plus de 80 % des tentatives d’authentification dans les environnements modernes, alors qu’ils représentent moins de 5 % de la surveillance de la sécurité3. Cet écart crée un angle mort exploitable par des acteurs malveillants.
Une analyse approfondie de la CSA révèle également que :
- près de 23 % des applications connectées à Google Workspace disposent de autorisations larges (lecture, écriture, suppression) pouvant modifier des données sensibles3;
- environ 50 % des jetons qui lient Salesforce à des applications tierces restent inutilisés, laissant des identifiants dormants mais potentiellement dangereux3.
Dans la pratique, un agent financier autonome pourrait lancer un virement ou changer un moyen de paiement ; un agent du support client pourrait modifier des informations personnelles identifiables (PII) pour résoudre un ticket ; un agent d’ingénierie pourrait pousser du code dans un référentiel sans revue humaine. Dans chaque cas, l’agent agit comme une clé API capable de prendre des décisions, et non comme un utilisateur soumis à une validation explicite.
Les limites de la gestion traditionnelle des identités et des accès (IAM)
Les cadres IAM actuels ont été conçus autour d’utilisateurs humains : mots de passe, groupes, politiques basées sur des rôles. Lorsqu’un compte de service ou une clé API est créé, il hérite souvent de privilèges excessifs et manque de métadonnées utiles pour le suivi. Une enquête de la communauté peer de Gartner souligne que de nombreuses entreprises héritent de « comptes anciens » dépourvus de contexte, ce qui complique la gouvernance à grande échelle4.
Conséquemment, les stratégies classiques peinent à détecter lorsqu’un agent autonome dépasse ses permissions légitimes ou lorsqu’un identifiant inutilisé est exploité.
Comment limiter le risque tout en tirant parti de l’IA
Éliminer l’adoption de l’IA n’est pas la solution ; il faut plutôt renforcer la gouvernance des identités non humaines. Trois actions clés sont recommandées par les experts.
1. Prioriser la gouvernance automatisée au niveau exécutif
Les comptes de service, les clés API et les secrets doivent être traités comme des actifs critiques, au même titre que les comptes utilisateurs. Gartner prévoit que d’ici 2028 près de 70 % des RSSI auront besoin de plateformes de visibilité et d’intelligence des identités pour maîtriser les risques IAM4. Ces outils permettent d’inventorier, de classifier et de surveiller en continu les identités non humaines.
2. Déployer des outils capables de comprendre le contexte des demandes
Des solutions telles que le Snyk AI Red Teaming testent les modèles de langage avec des prompts adverses pour révéler des comportements dangereux avant qu’ils ne soient déployés5. De même, la fondation CSAI de la Cloud Security Alliance travaille à l’analyse du comportement des utilisateurs et au contrôle des accès privilégiés afin de détecter les écarts d’activité des agents3.
3. Appliquer une stricte séparation des tâches au niveau des identités
Un principe fondamental est que aucun système automatisé ne devrait cumuler à la fois la lecture, l’écriture et la suppression de données sensibles sans contrôle indépendant. En séparant les rôles — par exemple, un agent qui peut initier un paiement ne doit pas pouvoir modifier les bénéficiaires — on réduit considérablement l’impact potentiel d’une compromission.
Vers une résilience accrue
Les agents autonomes ne sont pas une menace lointaine ; ils sont déjà intégrés dans les flux de travail de nombreuses entreprises pour gagner en efficacité et accélérer l’innovation. Comme le souligne SC Media, « les identités non humaines sont le vecteur d’attaque qui connaît la croissance la plus rapide, le moins gouverné et le plus exploité dans l’entreprise »6. Les organisations qui agiront dès maintenant — en mettant à jour leurs politiques IAM, en investissant dans des outils de visibilité contextuelle et en imposant une séparation claire des tâches — seront mieux préparées à résister à la prochaine génération de cybermenaces tout en protégeant leurs systèmes, leurs clients, leur réputation et leurs résultats.
1 SANS Institute, « OpenClaw and the Expanding Attack Surface », 2024.
2 2025 Organizational Identity Threat State Report, Identity Security Council.
3 Cloud Security Alliance, « Non‑Human Identity Security Trends », 2023.
4 Gartner Peer Community Survey, « IAM Challenges in Legacy Environments », 2023.
5 Snyk, « AI Red Teaming for LLM Security », 2024.
6 SC Media, « Non‑Human Identities: Fastest‑Growing Attack Vector », 2024.
