Aller au contenu principal
SaaS

Architecture neurosymbolique : la sortie du compromis perroquet contre solveur

Comment combiner LLM et raisonnement formel pour bâtir des agents IA fiables sur des domaines spécialisés. Lecture de la taxonomie de Kautz, des cas AlphaGeometry, Plato-3, FAOS.

Équipe SwoftPôle veille IA & systèmes agentiques
Diagramme combinant neurones et symboles formels (architecture neurosymbolique)

Pendant trente ans, la recherche en IA s'est divisée entre deux tribus. Les connexionnistes, qui voient l'intelligence comme un phénomène statistique émergent, ont produit le deep learning et les LLM. Les symbolistes, qui voient l'intelligence comme la manipulation de structures formelles, ont produit Prolog, les systèmes experts et les ontologies. Chaque tribu a marqué des points, et chacune a ses faiblesses caractéristiques.

L'architecture neurosymbolique est la sortie de ce duel par le haut : combiner les forces des deux paradigmes pour compenser leurs faiblesses respectives. C'est la direction la plus prometteuse pour bâtir des agents IA fiables sur des domaines spécialisés.

Le diagnostic des LLM seuls

Un LLM seul produit des sorties non déterministes. Posez la même question deux fois et vous pourrez obtenir deux réponses différentes. C'est acceptable pour de la créativité, c'est éliminatoire pour de la décision auditable.

Un LLM seul hallucine sur les domaines spécialisés. Plus le domaine est éloigné des corpus d'entraînement génériques, plus la qualité chute. C'est précisément le cas des logiques métier d'entreprise, qui sont par définition absentes des corpus généraux.

Un LLM seul n'a pas de mémoire structurée du système qu'il manipule. Il ne sait pas ce qu'il a fait il y a cinq minutes au-delà de sa fenêtre de contexte, et il ne sait pas ce qu'il va faire dans cinq minutes au-delà du prompt courant. Cette absence de modèle interne est le principal obstacle à l'agent fiable.

Le diagnostic des systèmes symboliques seuls

À l'inverse, un système symbolique seul est rigide, fragile face à l'ambiguïté et à l'imprécision, et coûteux à maintenir. Les systèmes experts des années 80 ont buté précisément sur la difficulté de capturer toutes les règles d'un domaine et de les maintenir à jour. Ce qui marche en laboratoire échoue sur la diversité du monde réel.

Le compromis perroquet contre solveur est faux. On n'a pas à choisir entre un LLM qui hallucine et un solveur formel qui ne sait pas lire un email. On peut combiner les deux, et c'est précisément ce que fait l'architecture neurosymbolique.

La taxonomie de Kautz, référence du domaine

Henry Kautz, dans sa conférence Engelmore Memorial à AAAI 2020, a proposé la taxonomie qui fait référence dans le domaine. Six architectures sont distinguées par le degré et la direction d'intégration entre composants neuraux et symboliques. Toutes ne se valent pas pour les systèmes d'entreprise.

Le Type 3, dit Neuro | Symbolic, est celui qui domine en production en 2026. Le composant neuronal convertit le langage naturel ou les données non structurées en représentation symbolique. Le composant symbolique applique alors un raisonnement formel. C'est l'architecture d'AlphaGeometry chez DeepMind, du système médical Plato-3 publié dans Nature Portfolio en novembre 2025, et de la plateforme FAOS publiée sur arXiv en avril 2026.

AlphaGeometry, exemple paradigmatique

AlphaGeometry, publié par DeepMind début 2024, est cité dans la littérature comme l'exemple canonique du Type 3 réussi. Un LLM guide un moteur de déduction symbolique pour résoudre des problèmes de géométrie au niveau olympique. Le neuronal génère des constructions géométriques candidates. Le symbolique vérifie chaque étape par déduction formelle.

Le résultat est sans équivoque : le LLM seul est incapable de résoudre les problèmes, le solveur formel seul ne sait pas par où commencer, et la combinaison atteint le niveau humain expert. La valeur n'est pas dans l'apprentissage conjoint, elle est dans la complémentarité des deux composants.

Plato-3, le précédent en production réelle

Plato-3, publié dans Nature Portfolio en novembre 2025, est plus proche d'un cas d'entreprise classique. Le système connecte GPT-4 à un système expert Prolog pour extraire des paramètres cliniques structurés depuis des rapports médicaux en texte libre. GPT-4 propose des candidats, Prolog vérifie contre une ontologie médicale formelle. En cas de contradiction, Prolog re-prompte GPT-4 avec son propre raisonnement.

Les résultats sont parlants : F1 = 1.00 pour le système combiné contre F1 = 0.63 pour GPT-4 seul, et 100 % de précision sur les valeurs PSA. C'est le saut qualitatif que produit l'architecture Type 3 dans un domaine spécialisé.

FAOS et l'effet de connaissance parametrique inverse

Le papier FAOS publié en avril 2026 sur arXiv est la référence la plus récente d'un système neurosymbolique d'entreprise généraliste. La plateforme déploie 650 agents sur 21 secteurs industriels avec couplage ontologique asymétrique : les ontologies de rôle, domaine et interaction contraignent les entrées des agents.

Les auteurs de FAOS établissent empiriquement un résultat important : la valeur du couplage symbolique est inversement proportionnelle à la couverture du domaine dans les données d'entraînement du LLM. Plus votre domaine est spécialisé et sous-représenté dans les corpus, plus l'ontologie symbolique apporte de valeur. C'est un argument fort pour la conformité, la finance pointue, la santé spécialisée, la défense.

Les quatre lacunes que les systèmes neurosymboliques actuels n'adressent pas

La revue de Colelough et Regli sur arXiv en 2025 a recensé 167 articles sur les systèmes neurosymboliques entre 2020 et 2024. Le diagnostic est sévère : les systèmes en production restent rares, et la plupart des travaux sont des preuves de concept sur des domaines étroits. Quatre lacunes structurelles ressortent.

  • Le déterminisme du replay : aucun système neurosymbolique de production ne garantit que rejouer le même pipeline produira le même résultat. Les LLM restent non déterministes.
  • La généricité du symbolique : les ontologies sont construites manuellement pour des domaines étroits. Aucun système n'a un composant symbolique générique capable de modéliser n'importe quel domaine.
  • La scalabilité du symbolique : les raisonneurs (Answer Set Programming, Prolog, ILP) saturent sur de grands espaces de prédicats.
  • L'accountability multi-agents : quand plusieurs agents collaborent, la traçabilité de qui a décidé quoi pour quelle raison est généralement absente.

Sujets abordés

  • Neurosymbolique
  • Kautz
  • AlphaGeometry
  • FAOS
  • Architecture IA
Traduction technologique

Comment Swoft traduit cet enjeu en logiciel

Voici comment l'architecture neurosymbolique de Swoft se concrétise dans les agents que nous livrons. La théorie devient ingénierie, par construction.

  1. 01

    Métamodèle DDD comme composant symbolique

    44 collections MongoDB CFG_* décrivent formellement les bounded contexts, agrégats, commandes, événements et règles. C'est l'ontologie générique que Colelough identifie comme manquante dans les systèmes existants.

  2. 02

    AI Decisions as Data pour le déterminisme

    Chaque décision LLM (raisonnement, modèle, score, prompt) est stockée comme événement immuable. Le rejeu reproduit exactement le même résultat, indépendamment du modèle utilisé.

  3. 03

    Validation à 21 niveaux comme raisonneur

    21 vérifications réparties sur 4 niveaux contrôlent en continu la cohérence du système : pré-génération, conformité code-schéma, intégrité métamodèle, santé continue. Le symbolique vérifie le neuronal.

Continuer la lecture — SaaS