Selon une étude qualitative récente publiée sur arXiv, les lacunes de gouvernance et le manque de connaissances des cadres dirigeants constituent le principal frein à l’adoption efficace de l’IA agentique.
Mourad Krim résume parfaitement cette problématique : « Les lacunes de gouvernance et les connaissances limitées des cadres constituent un frein majeur à l’adoption efficace de l’intelligence artificielle agentique ».
Cette recherche, menée par Lee Ackerman et intitulée Perceptions of Agentic AI in Organizations: Implications for Responsible AI and ROI, explore les perceptions des professionnels de l’IA via une approche interprétative qualitative. Elle montre que l’absence de cadres clairs, la faible implication des parties prenantes et une focalisation excessive sur le contrôle technique empêchent les organisations de déployer pleinement ces systèmes autonomes et d’en tirer une valeur réelle.
L’étude originale est disponible ici : Perceptions of Agentic AI in Organizations: Implications for Responsible AI and ROI – Lee Ackerman (arXiv, 2025).
Alors que l’IA agentique (systèmes autonomes capables de planification proactive, d’apprentissage continu et de multimodalité) progresse rapidement, la gouvernance organisationnelle devient cruciale pour aligner ces technologies sur les valeurs humaines, les objectifs métiers et les exigences réglementaires.
Pourquoi l’IA agentique représente un défi unique pour les entreprises ?
L’IA agentique se distingue des IA traditionnelles par son degré élevé d’autonomie. Ces systèmes ne se contentent plus de répondre à des requêtes : ils planifient, exécutent des tâches complexes en plusieurs étapes, apprennent en continu et s’adaptent à des contextes imprévus.
Dans ce contexte, une gouvernance IA responsable est indispensable pour :
- Garantir la transparence et l’imputabilité
- Gérer les risques éthiques, de sécurité et de conformité
- Aligner les agents IA sur les priorités stratégiques de l’entreprise
Pourtant, l’étude d’Ackerman révèle que la plupart des organisations peinent à mettre en place des cadres adaptés, ce qui retarde l’adoption et limite le retour sur investissement (ROI).
Un manque criant de clarté dans les responsabilités
Absence de définition précise des rôles
L’un des enseignements majeurs de l’étude est le flou persistant autour des rôles et responsabilités en matière de gouvernance de l’IA agentique.
Les répondants (professionnels de l’IA) soulignent des divergences importantes dans les interprétations internes : qui est responsable de la supervision des agents ? Qui valide les décisions autonomes ? Qui gère les incidents ?
Ce manque de clarté complique la mise en place de processus décisionnels efficaces, notamment pour :
- L’imputabilité (accountability)
- La traçabilité des actions
- La gestion proactive des risques
Sans rôles clairement définis, les organisations peinent à appliquer les principes d’IA responsable recommandés par l’OCDE ou le NIST.
Lacunes de connaissances chez les cadres dirigeants (H3)
Les cadres responsables manquent souvent de maîtrise des cadres normatifs existants :
- Principes de l’OCDE sur l’IA
- NIST AI Risk Management Framework
- Bonnes pratiques européennes (AI Act)
Cette faiblesse informationnelle empêche de traduire ces guidelines théoriques en politiques internes concrètes et adaptées aux spécificités de l’organisation.
Une focalisation excessive sur le contrôle technique
Plutôt que de développer une gouvernance holistique, de nombreuses entreprises privilégient des mécanismes de contrôle interne :
- Audits ponctuels
- Vérifications techniques
- Surveillance accrue des outputs
Si ces outils renforcent la supervision immédiate, ils négligent l’essentiel : une culture organisationnelle partagée autour de l’IA responsable.
L’étude met en évidence un engagement insuffisant des parties prenantes transverses :
- Métiers
- Juridique
- Conformité
- Éthique
Cette approche « silo » limite la prise en compte des impacts sociétaux, réglementaires et éthiques à long terme.
Comment ces lacunes freinent-elles concrètement l’adoption ?
Les déficits identifiés ont des conséquences directes :
- Allongement des délais de mise en œuvre : les équipes passent plus de temps à clarifier les responsabilités et à monter en compétences qu’à déployer
- Augmentation des risques : conformité (AI Act), éthique, biais, sécurité, réputation
- Limitation de la valeur extraite : alignement faible avec les objectifs stratégiques → ROI décevant
- Perte de confiance interne et externe (salariés, clients, régulateurs)
En résumé, sans gouvernance adaptée, le potentiel transformateur de l’IA agentique reste largement inexploité.
Vers une gouvernance plus efficace de l’IA agentique
L’étude propose plusieurs pistes concrètes pour surmonter ces obstacles :
1. Renforcer la formation et la sensibilisation des cadres
- Programmes dédiés sur les cadres normatifs (OCDE, NIST, AI Act)
- Ateliers sur l’éthique, la gestion des risques et les spécificités de l’IA agentique
- Certifications internes ou externes en IA responsable
2. Élargir l’engagement des parties prenantes
Intégrer dès la conception :
- Les métiers (besoins opérationnels)
- La conformité et le juridique (réglementation)
- La sécurité et l’éthique (impacts sociétaux)
Cet engagement favorise des politiques inclusives, anticipatrices et plus robustes.
3. Rééquilibrer contrôle technique et gouvernance organisationnelle
Passer d’une logique purement technique à une approche stratégique :
- Culture de responsabilité partagée
- Mécanismes de supervision intégrés au quotidien
- Évaluation continue des impacts (pas seulement ponctuelle)
Ces changements permettraient d’améliorer la résilience face aux risques émergents tout en accélérant l’adoption.
Conclusion : Agir sur la gouvernance pour libérer le potentiel de l’IA agentique
L’étude de Lee Ackerman confirme une réalité clé en 2026 : les obstacles à l’adoption de l’IA agentique sont avant tout organisationnels et humains, et non uniquement techniques.
Les entreprises qui investiront dans une gouvernance IA responsable, une montée en compétences des dirigeants et un engagement élargi des parties prenantes seront celles qui tireront le meilleur parti de ces technologies autonomes et proactives.
Ignorer ces lacunes expose à des retards coûteux, des risques accrus et un ROI limité. À l’inverse, les combler ouvre la voie à une transformation numérique durable et éthique.
Pour l’article de Mourad KRIM sur ITSocial.fr.