86 % des professionnels de la cybersécurité estiment que les agents IA et les systèmes autonomes ne sont pas fiables sans identités numériques uniques et dynamiques
Paris, le, 2 février 2026 – Keyfactor, leader de la confiance numérique pour les entreprises, a dévoilé les résultats de son étude Digital Trust Digest : The AI Identity Edition, menée en partenariat avec Wakefield Research[1]. Cette étude met en lumière un décalage important entre l’adoption rapide de l’IA agentique et la capacité réelle des entreprises à authentifier, gouverner et sécuriser des systèmes autonomes opérant dans leurs environnements.
À mesure que les agents IA gagnent en autonomie – par exemple en initiant des actions, en accédant à des systèmes et en interagissant avec d’autres agents sans supervision humaine directe – les modèles de sécurité traditionnels montrent leurs limites, voire commencent à s’effondrer. Les entreprises déploient des agents IA toujours plus puissants sans disposer des fondations identitaires nécessaires pour répondre à des questions pourtant essentielles : qui agit, avec quels droits, et comment interrompre ou auditer un comportement défaillant.
Ce déficit de confiance, qui se creuse, devient rapidement un risque un risque pour la sécurité. Le rapport révèle que plus des deux tiers (69 %) des professionnels de la cybersécurité estiment que les vulnérabilités des agents IA et des systèmes autonomes constituent une menace plus importante pour la sécurité et les systèmes d’identité de leur entreprise que l’utilisation abusive de l’IA par les humains.
Au cœur de ce risque se trouve l’identité. Une écrasante majorité (86 %) des répondants s’accordent à dire que sans identités numériques uniques et dynamiques, les agents IA et les systèmes autonomes ne peuvent pas être totalement fiables. Pourtant, malgré cette prise de conscience, de nombreuses entreprises ne disposent toujours pas d’infrastructures d’identité et de cadres de gouvernance nécessaires pour gérer en toute sécurité les agents IA à grande échelle. La situation s’aggrave à mesure que l’adoption s’accélère : 85 % des professionnels de la cybersécurité s’attendent à ce que, d’ici 5 ans, les identités numériques des agents IA deviennent aussi courantes que celles des humains et des machines.
Sécurité de l’IA agentique : un écart préoccupant entre constat et action
Si les risques liés à l’IA agentique sont largement reconnus, seule la moitié des professionnels interrogés ont mis en place des cadres de gouvernance pour y remédier, et seulement 28 % d’entre eux pensent pouvoir empêcher un agent malveillant de causer des dommages.
La sécurité de l’IA agentique représente donc une priorité pour les conseils d’administration, pourtant 55 % des responsables de la sécurité affirment que leur direction générale ne prend pas suffisamment au sérieux les risques liés à l’IA agentique, soulignant un écart flagrant entre le constat et l’action, qui rend les entreprises vulnérables.
« Alors que les entreprises accélèrent le déploiement des systèmes d’IA autonomes, les infrastructures de sécurité censées les protéger accusent un retard préoccupant. Les dirigeants doivent fournir aux équipes de sécurité les ressources et le soutien nécessaires pour permettre à leurs entreprises d’avoir confiance en l’IA, de le prouver et de stopper son utilisation si besoin. La confiance numérique entre dans une nouvelle phase, et l’identité en sera le principal levier de succès pour la prochaine décennie de l’IA de l’IA. » a déclaré Jordan Rackie, CEO de Keyfactor.
La crise d’identité de l’IA d’entreprise
Malgré le consensus quasi unanime sur le fait que les identités numériques des agents IA seront aussi courantes que les identités humaines et machines dans les années à venir, le changement doit s’opérer dès à présent pour que les entreprises soient en mesure de sécuriser correctement ces identités. Sans contrôles appropriés, les agents IA ne pourront jamais atteindre leur plein potentiel.
« Nos modèles d’identité, de sécurité et de gouvernance ont été conçus pour un monde où les logiciels n’agissaient pas par eux-mêmes. Cette situation a entraîné une véritable crise d’identité au cœur de l’IA d’entreprise. Aujourd’hui, il est impossible de faire fonctionner des agents IA de manière autonome sans une traçabilité et des contrôles clairs pour gérer leurs identités. Les équipes doivent mettre en place dès maintenant l’infrastructure nécessaire pour gérer l’afflux d’agents à venir et éviter ainsi de lourdes conséquences pour leur entreprise. » a déclaré Ellen Boehm, SVP, IoT & AI Identity Innovation.
La menace imminente du vibe coding pour la sécurité
L’étude met également en lumière le risque croissant lié au vibe coding : plus des deux tiers des entreprises (68 %) reconnaissent ne pas disposer d’une visibilité ou d’une gouvernance complète et suffisante sur le code généré par l’IA, ce qui crée un risque majeur. En effet, les assistants IA écrivent des portions de plus en plus importantes du code source des entreprises sans les garanties fondamentales qui rendent le code fiable.
« Le vibe coding offre des avantages considérables aux équipes DevSecOps, mais présente également des risques importants s’il n’est pas sécurisé de manière appropriée. La solution est claire : chaque contribution de l’IA doit porter une empreinte cryptographique, chaque code doit avoir une provenance vérifiable, chaque commit doit être lié à une identité attribuable et chaque agent IA doit fonctionner avec des limites applicables et des identifiants révocables. Sans cela, les équipes ne seront jamais en mesure de vérifier qui – ou quoi -a écrit les éléments critiques de leur logiciel. L’identité, la provenance cryptographique et la gouvernance sont la clé pour sécuriser cette nouvelle réalité. » a conclu Ellen Boehm.
La France s’inscrit globalement dans les grandes tendances observées au niveau mondial, mais plusieurs écarts significatifs traduisent un marché à la fois prudent, structuré et exigeant :
83% des professionnels français de la cybersécurité estiment que les services ou équipes les plus susceptibles d’introduire des risques de sécurité dans des projets d’IA sont les Centre des opérations de sécurité (contre 75% dans le reste du monde)
Seuls 18% d’entre eux (contre 33% au niveau mondial) affirment, sans équivoque, que sans identités numériques uniques et dynamiques, il est impossible de faire pleinement confiance aux agents IA et aux systèmes autonomes
Pour gérer les identités des agents et outils d’IA au sein de leurs entreprises, les répondants privilégient en priorité les certificats digitaux (68% contre 54% dans le reste du monde) suivis à égalité par les clés API, les clés symétriques et la signature électronique (58%)
Ils se situent par ailleurs en deçà de la moyenne globale des répondants (85%) quant à la généralisation des identités numériques pour les agents IA : 75% d’entre eux estiment qu’elles deviendront aussi courantes que les identités humaines ou machines d’ici cinq ans
Les résultats complets du Digital Trust Digest : AI Identity Edition sont disponibles sur : https://www.keyfactor.com/digital-trust-digest-ai-identity