Publié le 18 février 2026 à 13h21. Google DeepMind met en lumière les failles des systèmes d’agents actuels en matière de délégation, proposant un nouveau cadre pour une gestion plus robuste et responsable de l’intelligence artificielle distribuée.
- Les chercheurs de DeepMind estiment que la délégation d’IA est souvent réduite à une simple répartition de tâches, négligeant des aspects cruciaux comme le transfert d’autorité et de responsabilité.
- Ils proposent une approche plus formelle, baptisée « délégation intelligente de l’IA », qui intègre des mécanismes de surveillance et de confiance adaptés aux environnements changeants.
- Ce cadre est particulièrement pertinent pour les entreprises qui adoptent massivement des agents d’IA spécifiques à des tâches, un phénomène en forte croissance selon les prévisions de Gartner.
Les systèmes d’agents intelligents, de plus en plus présents dans les entreprises, présentent des vulnérabilités en matière de délégation, selon une prépublication récente de Google DeepMind. L’étude, disponible sur arXiv, critique l’approche actuelle où la délégation est perçue comme une simple division du travail, sans considération pour les implications en termes d’autorité, de responsabilité et de confiance.
DeepMind propose une alternative plus sophistiquée, qu’elle appelle « délégation intelligente de l’IA ». Cette approche ne se contente pas de transférer des tâches, mais également l’autorité nécessaire pour les accomplir, ainsi que la responsabilité des résultats et les moyens de vérifier leur conformité. Elle insiste sur l’importance de mécanismes de surveillance et de confiance capables de s’adapter aux évolutions de l’environnement et de pallier les éventuelles défaillances des agents.
Le cadre développé par DeepMind cible les problèmes courants observés dans les systèmes multi-agents, notamment les méthodes de délégation basées sur des « heuristiques simples » qui ne s’adaptent pas aux imprévus et ne gèrent pas efficacement les erreurs. Au lieu de règles de routage préprogrammées, il envisage la délégation comme une série de décisions structurées, incluant la définition claire des rôles et des limites, la communication précise des intentions, le transfert d’autorité et de responsabilité, et la mise en place de mécanismes de confiance mutuelle.
Les auteurs établissent également un parallèle entre les problèmes classiques de mandant-agent et les réseaux d’agents, soulignant les risques de désalignement lorsque la délégation est confiée à un agent dont les objectifs ne sont pas parfaitement alignés avec ceux du mandant.
Ce nouveau cadre arrive à un moment où l’adoption des agents d’IA spécifiques à des tâches connaît une accélération. Selon Gartner, 40 % des applications d’entreprise intégreront de tels agents d’ici la fin de 2026, contre moins de 5 % en 2025. Cette tendance souligne l’importance d’une gestion rigoureuse de la délégation pour éviter les risques systémiques liés à des chaînes de délégation complexes, où des agents agissant comme de simples « routeurs » pourraient compromettre la responsabilité globale.
L’étude met également l’accent sur la vérifiabilité, l’auditabilité et l’interopérabilité des systèmes d’agents. Elle explore différentes options de surveillance, allant de la simple signalisation de l’état à la vérification cryptographique, en passant par l’utilisation de preuves sans connaissance pour garantir l’exactitude des données sans les révéler. En matière de contrôle d’accès, elle préconise la définition de règles d’autorisation via une approche « politique en tant que code », permettant aux organisations d’auditer, de versionner et de vérifier mathématiquement leur posture de sécurité.
Concernant l’interopérabilité, le document mentionne le protocole Agent2Agent (A2A) de Google comme une couche de transport pour la coordination des agents, mais souligne qu’il est principalement conçu pour la coordination et manque de mécanismes standardisés pour attacher des preuves de complétion vérifiables, telles que des preuves ZK, des attestations TEE ou des chaînes de signature. De même, le protocole de paiement des agents de Google (AP2) est présenté comme offrant une autorisation et une piste d’audit pour la provenance de l’intention, mais il ne vérifie pas la qualité de l’exécution et ne prend pas en compte la logique de règlement conditionnel, comme le séquestre ou la libération basée sur des jalons.