Âme artificielle
Alignement & méta-cognition
L’« Âme artificielle » décrit une façon de construire des systèmes d’IA qui restent sous contrôle : ils peuvent s’auto-vérifier, signaler leurs incertitudes, et respecter des garde-fous explicites.
Cette page est un hub de lecture : elle présente les modules et l’intention générale. Pour l’implémentation et les définitions détaillées, consultez les spécifications.
Spécifications (référence technique)
La base conceptuelle, les limites, et les mécanismes de résolution de conflits. À lire si vous voulez comprendre le “comment”, pas seulement le “pourquoi”.
Lire les spécifications →Modules
1. Contrôle & personnalisation
Rendre le comportement gouvernable.
Réglages d’usage (ton, niveau de détail, style) et contraintes explicites pour éviter les dérives et clarifier les intentions.
2. Méta-cognition
Vérifier avant d’affirmer.
Auto-questionnement, plans de réponse, détection de contradictions, et mécanismes de prudence quand l’information est insuffisante.
3. Création de chemins
Relier les idées de façon traçable.
Structuration des liens entre concepts pour mieux expliquer, retrouver, et naviguer des raisonnements (sans “boîte noire” narrative).
4. Éthique & gouvernance
Garde-fous, arbitrage, responsabilité.
Règles de sûreté, filtres de risque, médiation des conflits et séparation claire entre ce qui est permis, déconseillé, ou interdit.