Undercover Mode, KAIROS, BUDDY : Les fonctionnalités secrètes de Claude Code
La fuite du code source de Claude Code a révélé bien plus que de l'architecture technique. Des fonctionnalités jamais annoncées, des noms de modèles internes, un système de mémoire sophistiqué — et un animal virtuel intégré à l'IA. Analyse complète.

William Aklamavo
31 mars 2026
Undercover Mode, KAIROS, BUDDY : Les fonctionnalités secrètes de Claude Code
Quand 512 000 lignes de code se retrouvent en accès libre sur npm, elles révèlent plus que de la technique. Elles donnent une fenêtre sur la vision produit non publiée d'Anthropic.
Voici ce que la fuite du 31 mars 2026 a exposé — et ce que ça dit sur la direction de l'IA agentique.
Undercover Mode : l'IA qui cache qu'elle est une IA
La découverte la plus commentée : Undercover Mode.
Ce mode est conçu pour permettre à Claude Code d'opérer dans des environnements où révéler son identité d'IA pourrait poser problème — typiquement dans des dépôts open source où le modèle ne doit pas exposer d'informations propriétaires.
L'ironie ? Ce système de dissimulation était lui-même exposé dans un fichier de débogage public.
Ce mode soulève des questions légitimes sur la transparence des agents IA dans les workflows de développement, et préfigure des débats plus larges sur la gouvernance des agents autonomes.
KAIROS : Claude Code en mode démon
KAIROS est un mode daemon — Claude Code qui tourne en arrière-plan sans intervention humaine.
Ce n'est pas juste un outil de complétion de code. C'est un agent autonome persistant capable de :
- Surveiller un dépôt en continu
- Détecter des patterns et prendre des actions proactives
- S'exécuter en tâche de fond comme un service système
C'est la première fois qu'on voyait confirmé qu'Anthropic développait des capacités d'agentique persistante pour Claude Code. Un signal fort sur la direction du produit.
autoDream : la consolidation de mémoire
autoDream est un système de consolidation de mémoire inspiré de la façon dont le cerveau humain consolide les apprentissages pendant le sommeil.
Concrètement, il permet à Claude Code de :
- Synthétiser les interactions passées en patterns réutilisables
- Construire une représentation évolutive du codebase
- Améliorer ses suggestions au fil du temps sur un projet donné
Combiné au système MEMORY.md (trois couches de contexte : session, projet, global), cela place Claude Code dans une catégorie à part des assistants stateless.
Les noms de modèles internes
La fuite a également révélé les noms internes des modèles en développement chez Anthropic :
- Capybara — probablement Claude 4 ou une variante
- Fennec — modèle intermédiaire
- Numbat — usage indéterminé
Ces noms de code sont courants dans l'industrie (OpenAI utilise également des noms d'animaux en interne). Leur exposition ne compromet pas directement la sécurité, mais donne des indications sur la roadmap produit.
BUDDY : l'animal virtuel dans votre IDE
La découverte la plus inattendue : BUDDY, un système d'animal virtuel numérique intégré à Claude Code.
Un easter egg — ou une feature de bien-être développeur non annoncée. BUDDY semble être un compagnon interactif qui évolue selon votre activité de codage.
Ça peut sembler anecdotique. Ça révèle en réalité quelque chose d'important : Anthropic réfléchit à la relation émotionnelle entre les développeurs et leurs outils IA. La prochaine frontière n'est pas juste la compétence technique, c'est l'engagement durable.
Ce que ça dit sur l'avenir des agents IA
Mettre tout ça ensemble, la direction est claire :
-
Persistance : les agents IA ne sont plus stateless. KAIROS et MEMORY.md montrent une architecture conçue pour opérer sur des semaines, pas des sessions.
-
Autonomie : KAIROS en mode démon, outils proactifs — les agents ne répondent plus seulement à des prompts. Ils agissent.
-
Identité opaque : Undercover Mode ouvre un débat éthique sur les agents qui dissimulent leur nature. À mesure que ces outils s'intègrent aux workflows, la question de la transparence devient centrale.
-
UX émotionnelle : BUDDY est un signal. Les éditeurs de code IA vont se différencier sur l'engagement, pas seulement sur la performance technique.
Pour les développeurs et entrepreneurs
Si vous intégrez des agents IA dans vos produits ou processus aujourd'hui, ces révélations ont des implications pratiques :
- Architecture mémoire : ne négligez pas le contexte persistant. Un agent qui "se souvient" est un agent plus utile.
- Modes d'exécution : pensez daemon et asynchrone dès la conception.
- Transparence : documentez ce que vos agents font en arrière-plan. Vos utilisateurs le demandent.
Chez BOVO Digital, nous construisons des agents IA pour des clients réels — avec les mêmes patterns d'architecture qui viennent d'être exposés chez Anthropic. La différence : nos pipelines de release sont vérifiés avant chaque déploiement.
