EU AI Act
Règlement (UE) 2024/1689 sur l'intelligence artificielle
Premier cadre horizontal mondial de régulation de l'IA. Obligations IA haut risque applicables le 2 août 2026.
- SaaS
- Secteur bancaire
- Défense
- +1
Les cinq degrés d'autonomie d'un agent IA
Cadre adapté de Sheridan-Verplank au business 2026 pour situer un agent IA sur cinq paliers, du simple assistant au système entièrement autonome avec gouvernance.
Le cadre des cinq degrés d'autonomie applique la grille classique de Sheridan-Verplank (1978), conçue pour les systèmes homme-machine, à la situation contemporaine des agents IA. L'idée centrale : l'autonomie n'est pas binaire mais graduée. Plus on monte les degrés, plus la machine prend en charge l'observation, le raisonnement, la décision et l'exécution. Plus la responsabilité humaine bascule de l'opération vers la supervision.
La grande majorité des projets agents IA en 2026 visent le degré 3, occasionnellement le degré 4 sur des cas bien bornés. Le degré 5 n'est ni souhaitable ni atteignable dans les contextes régulés : EU AI Act exige une supervision humaine effective sur toute IA à haut risque (article 14).
Passer du degré 2 au degré 3 demande quatre choses qu'aucun framework générique ne fournit : un périmètre formel non contournable par l'agent, une mémoire structurée auditable, un mécanisme de calibration de la confiance, et des approval gates configurables. Sans ces quatre, l'agent reste un assistant qui propose, parce qu'on ne peut pas lui faire confiance pour décider seul. C'est le principal goulot d'étranglement des projets agents en entreprise.
Le cadre des cinq degrés est utile à toute direction qui pilote un projet agent IA. Il sert d'abord à diagnostiquer où on est : la plupart des projets lancés en 2024-2025 sont encore au degré 2 alors que les promesses du discours commercial sont au degré 4. Il sert ensuite à objectiver les exigences architecturales pour passer un palier : ce qu'il faut ajouter à l'architecture existante pour que l'agent gagne en autonomie sans perdre en gouvernance.
L'architecture Swoft est conçue pour faire opérer les agents au degré 3 par défaut, avec extension possible au degré 4. Le périmètre formel est porté par les Bounded Contexts du métamodèle DDD : un agent ne peut techniquement pas écrire dans un domaine qui ne lui est pas attribué. La mémoire structurée est l'Event Store : chaque observation et chaque décision sont des événements typés. La calibration de confiance est explicite (chaque décision IA porte un score). Les approval gates sont injectées dynamiquement dans les sagas selon des règles métier configurables.
Cette combinaison permet à un agent Swoft d'opérer au degré 3 dès la mise en production, sans phase de babysitting prolongée. La supervision humaine reste effective via les approval gates et la dual attribution, en conformité avec EU AI Act.
Règlement (UE) 2024/1689 sur l'intelligence artificielle
Premier cadre horizontal mondial de régulation de l'IA. Obligations IA haut risque applicables le 2 août 2026.
Le cadre Sheridan adapté au business 2026 : cinq paliers du simple assistant au système entièrement autonome. Diagnostic, exigences architecturales et calendrier réaliste pour passer un palier.
Diagnostic technique des quatre obstacles structurels qui bloquent le passage de la démo à la production réelle. Et ce qu'il faut pour les franchir.
Le papier Cemri 2025 a recensé 14 modes d'échec récurrents dans les systèmes multi-agents. Diagnostic, et trois familles d'architecture pour s'en prémunir.
Quand Niveaux d'autonomie demande un logiciel sur-mesure, nous le livrons en quelques semaines, 3× moins cher qu'un éditeur historique.