Publié le 12 février 2026. L’adoption rapide de l’intelligence artificielle (IA) dans les entreprises s’accompagne de nouveaux défis en matière de cybersécurité, selon un rapport de Microsoft. Plus de 80 % des grandes entreprises utilisent déjà des agents d’IA, mais leur déploiement incontrôlé expose les organisations à des risques croissants.
- Plus de 80 % des entreprises du Fortune 500 déploient déjà des agents d’IA, souvent développés avec des outils simples.
- Près d’un quart des employés (29 %) utilisent des agents d’IA non approuvés par leur service informatique, créant des failles potentielles.
- Microsoft recommande une approche de sécurité « Zero Trust » et une surveillance accrue de l’IA pour atténuer ces risques.
L’intelligence artificielle transforme en profondeur le monde du travail, automatisant des tâches et optimisant les processus dans tous les secteurs. Cependant, cette révolution technologique s’accompagne d’une vulnérabilité accrue face aux cyberattaques. Le rapport « Cyber Pulse » de Microsoft met en lumière les dangers liés à l’utilisation non contrôlée de l’IA et appelle à une approche plus rigoureuse de la sécurité.
L’une des principales préoccupations soulevées par le rapport est l’essor de ce que l’on appelle l’« IA fantôme ». Ce phénomène se réfère à l’utilisation d’agents d’IA non autorisés par les services informatiques ou de sécurité. Selon le rapport, 29 % des employés admettent utiliser des outils d’IA non approuvés dans leur travail, ouvrant ainsi la porte à des fuites de données, des erreurs d’automatisation et des failles de sécurité involontaires. La gouvernance responsable de l’IA est donc devenue une priorité.
Pour contrer ces menaces, Microsoft préconise l’application des principes de la Sécurité Zero Trust, une approche qui repose sur la vérification continue de l’identité et du contexte avant d’autoriser l’accès aux ressources. Cela implique de limiter les privilèges, de vérifier explicitement l’identité des utilisateurs et des agents d’IA, et de supposer que la violation de sécurité peut se produire à tout moment. Les systèmes doivent donc être capables de détecter et de contenir rapidement les menaces.
L’observabilité est également un élément clé de la stratégie de sécurité recommandée par Microsoft. Il est essentiel de maintenir un registre centralisé de tous les agents d’IA (autorisés et non autorisés), de mettre en œuvre des contrôles d’accès cohérents et d’utiliser des tableaux de bord de surveillance en temps réel pour détecter les comportements anormaux. Les dangers d’une IA non surveillée sont réels, comme le démontrent les chercheurs de Microsoft qui ont montré comment les agents peuvent être manipulés ou subir des attaques de type « empoisonnement de la mémoire ».
Enfin, le rapport souligne que la sécurité de l’IA est une responsabilité partagée qui nécessite une collaboration étroite entre les équipes de sécurité informatique, les dirigeants commerciaux, les responsables de la conformité, les services juridiques et les ressources humaines. Ce n’est qu’en travaillant ensemble que les organisations pourront trouver un équilibre entre l’innovation et la protection contre les nouveaux risques de sécurité. Microsoft insiste sur le fait que cette nouvelle phase de transformation numérique exige une sécurité solide et une gouvernance proactive pour lutter contre des phénomènes tels que l’IA de l’Ombre et promouvoir la transparence et le contrôle au sein de l’organisation.