Chaque Erreur Devient une Règle :
Comment diffray Apprend de Vos Retours

Pourquoi la revue de code IA sans apprentissage des retours n'est qu'un générateur de bruit coûteux

9 Janvier 2026
10 min de lecture

Boris Cherny, le créateur de Claude Code, a récemment révélé son workflow, et une phrase de son fil a explosé dans la communauté des développeurs : "Chaque fois que nous voyons Claude faire quelque chose d'incorrect, nous l'ajoutons au CLAUDE.md, pour que Claude sache ne pas le refaire."

Le leader produit Aakash Gupta l'a parfaitement résumé : "Chaque erreur devient une règle." Plus une équipe travaille longtemps avec l'IA, plus elle devient intelligente.

C'est exactement la philosophie sur laquelle diffray est construit. Aujourd'hui, nous vous montrons comment cela fonctionne sous le capot.

Le Problème : La Pollution du Contexte Tue la Qualité des Revues

Avant de parler des règles, nous devons comprendre le principal défi technique de la revue de code IA — la pollution du contexte.

La recherche d'Anthropic montre que les LLMs, comme les humains, perdent leur concentration à mesure que la fenêtre de contexte se remplit. Les corrections s'accumulent, les discussions secondaires s'empilent, les sorties d'outils obsolètes persistent. Le résultat est prévisible :

Faux positifs

L'IA trouve des "problèmes" qui n'existent pas

Hallucinations

Bugs imaginaires et patterns inexistants

Dérive d'objectif

Les revues deviennent progressivement moins pertinentes

JetBrains Research (Décembre 2025) a quantifié cela : les contextes d'agents croissent si rapidement qu'ils deviennent coûteux, mais ne livrent pas de performances significativement meilleures. Plus de contexte ≠ meilleurs résultats.

La Solution : Sous-agents Spécialisés avec Contexte Isolé

Boris Cherny utilise des sous-agents comme "encapsulations automatisées des workflows les plus courants." Sa philosophie :

"La fiabilité vient de la spécialisation plus la contrainte"

Au lieu d'un réviseur omniscient, sa commande de revue de code génère plusieurs agents parallèles avec des responsabilités distinctes :

1.Un agent vérifie les guides de style
2.Un autre analyse l'historique du projet pour comprendre les patterns
3.Un troisième signale les bugs évidents
4.Puis cinq agents supplémentaires cherchent spécifiquement des failles dans les premières découvertes

Cette couche adversariale est cruciale. Les agents secondaires contestent les découvertes du premier passage, éliminant les faux positifs par un scepticisme structuré.

Le résultat, selon Cherny : "trouve tous les vrais problèmes sans les faux."

Comment Ça Fonctionne Techniquement

Quand l'agent principal délègue à un sous-agent, une nouvelle fenêtre de contexte est créée contenant uniquement la description de la tâche et les paramètres pertinents. Le sous-agent peut explorer extensivement—consommant des dizaines de milliers de tokens en cherchant dans le code—mais ne renvoie qu'un résumé condensé de 1 000-2 000 tokens.

Cela préserve la concentration de l'agent principal tout en permettant une analyse approfondie.

Agent Principal(contexte propre)
🛡️
Sécurité
contexte isolé
Style
contexte isolé
Performance
contexte isolé
🏗️
Architecture
contexte isolé
Résumés condensés(1-2K tokens chacun)

Chez diffray, nous utilisons plus de 30 agents spécialisés, chacun focalisé sur un domaine spécifique : sécurité, performance, style de code, patterns architecturaux, et plus. Chaque agent opère dans un contexte isolé et ne renvoie que des découvertes substantielles.

Création de Règles : Transformer les Retours en Connaissance

Maintenant l'événement principal. Les sous-agents résolvent le problème du contexte. Mais comment faire apprendre l'IA de vos corrections ?

Le Pattern CLAUDE.md

Dans Claude Code, les équipes maintiennent un fichier CLAUDE.md dans leur dépôt—une sorte de "constitution" pour le projet. Le fichier est automatiquement chargé dans le contexte à chaque session.

Mais il y a une limitation critique. La recherche HumanLayer montre que le prompt système de Claude Code contient déjà ~50 instructions, et les LLMs de pointe suivent de manière fiable seulement 150-200 instructions au total. La qualité du suivi d'instructions diminue uniformément à mesure que le nombre augmente.

Cela signifie : vous ne pouvez pas simplement déverser 500 règles et espérer de la magie.

Trois Niveaux de Connaissance

Les règles efficaces encodent la connaissance à trois niveaux :

QUOI (Carte du Projet)

## Stack Technique
- Backend: Python 3.11, FastAPI, SQLAlchemy
- Frontend: React 18, TypeScript, TailwindCSS
- BD: PostgreSQL 15

POURQUOI (Décisions Architecturales)

## Pourquoi Nous N'Utilisons PAS d'ORM pour les Requêtes Complexes
Historique: L'ORM générait des requêtes N+1 dans les rapports.
Décision: SQL brut pour l'analytics, ORM uniquement pour CRUD.

COMMENT (Processus)

## Avant de Commiter
- Exécuter `make lint` — doit passer sans erreur
- Exécuter `make test` — la couverture ne doit pas baisser

Le Problème des Approches Manuelles

La maintenance manuelle des règles fonctionne... tant que votre équipe est petite et disciplinée. En réalité :

Les développeurs oublient de mettre à jour les règles

Les règles deviennent obsolètes plus vite que le code

Les conventions implicites restent implicites

La connaissance tribale meurt quand les personnes clés partent

Comment diffray Automatise la Création de Règles

diffray inverse le processus. Au lieu d'écrire des règles manuellement, vous donnez simplement du feedback sur les revues.

La Boucle d'Apprentissage

📝
PR
🔍
Revue diffray
💬
Feedback du Dev
🧠
Analyse
🔬Extraction de Patterns
Qu'est-ce qui était faux ?
⚙️Génération de Règles
Créer une règle spécifique
Validation
Tester sur l'historique PR
La prochaine PR intègre la règle

Étape 1 : Vous Donnez du Feedback

Vous avez mis un pouce vers le bas sur un commentaire diffray ? Répondu "ce n'est pas un bug, c'est intentionnel" ? Ignoré une recommandation ? diffray capture tout.

Étape 2 : Extraction de Patterns

diffray analyse : qu'est-ce qui était exactement faux ? Était-ce une fausse alerte (le code est correct), un contexte inapplicable (la règle ne s'applique pas ici), ou une convention spécifique au projet (c'est comme ça qu'on fait ici) ?

Étape 3 : Génération de Règles

Basé sur le pattern, diffray formule une règle qui spécifie la portée (quels fichiers/répertoires), ce qu'il faut supprimer ou appliquer, et pourquoi. La règle est liée au feedback original pour traçabilité.

Étape 4 : Validation

Avant d'appliquer la règle, diffray l'exécute contre les PRs historiques. Combien de commentaires auraient été supprimés ? Combien d'entre eux étaient de vrais faux positifs ? La règle n'est appliquée que si elle améliore la précision.

Types de Règles dans diffray

🚫

Règles de Suppression

"Ne pas signaler X dans le contexte Y" — ignorer certains avertissements dans le code legacy, les fichiers de test, ou le code généré.

🛡️

Règles d'Application

"Toujours vérifier Z" — s'assurer que les patterns critiques comme le paramétrage SQL ou les vérifications d'auth ne sont jamais manqués.

🎯

Règles de Contexte

"Considérer les spécificités" — ajuster la priorité en fonction du type de fichier, des décorateurs, ou des patterns de code environnants.

📖

Règles de Terminologie

"On l'appelle comme ça" — enseigner à diffray votre vocabulaire de domaine pour qu'il comprenne mieux votre base de code.

Exemple Pratique : De l'Agacement à la Règle

Imaginez : diffray laisse un commentaire sur votre PR :

Avertissement Performance : Utiliser any réduit la sécurité des types. Envisagez un typage explicite.

Vous savez que c'est un module legacy prévu pour réécriture le trimestre prochain. Corriger les types maintenant serait une perte de temps.

Vous répondez : "C'est du legacy, le typage sera traité pendant la refactorisation Q2"

Ce qui se passe ensuite :

1.diffray reconnaît le feedback négatif
2.Analyse le contexte : le fichier est dans src/legacy/, il y a un TODO avec une date
3.Trouve des cas similaires dans l'historique : 12 commentaires analogues le mois dernier
4.Génère une règle de suppression pour src/legacy/** avec une date d'expiration (Q2)
5.La prochaine PR dans src/legacy/ — diffray reste silencieux sur les types

Mais important : la règle n'est pas permanente. La date d'expiration signifie qu'après Q2, diffray recommencera à vérifier les types dans ce répertoire.

La Métrique : Réduire le Taux de Faux Positifs

La mesure clé de l'efficacité de la revue de code IA est le taux de faux positifs. Combien de commentaires sur 100 étaient inutiles ?

Benchmarks typiques de l'industrie :

40-60%

Faux positifs revue IA de base

25-35%

Avec règles manuelles

8-13%

diffray avec règles apprises

Comment nous y parvenons :

Isolation du contexte

Via les sous-agents prévient la dérive

Spécialisation des agents

Améliore la précision dans chaque domaine

Apprentissage des retours

Élimine les faux positifs récurrents

Validation des règles

Prévient le surapprentissage

Pour Commencer : Trois Étapes

Étape 1 : Connectez diffray à Votre Dépôt

L'intégration prend 5 minutes via GitHub App ou webhook GitLab.

Étape 2 : Travaillez Simplement

Pendant les 2-3 premières semaines, diffray opère en mode apprentissage. Il étudie la structure de votre projet, vos patterns de PR, et le style de commentaires de vos réviseurs.

Étape 3 : Donnez du Feedback

N'ignorez pas silencieusement les commentaires diffray. Donnez un pouce vers le haut aux utiles, vers le bas aux inutiles, répondez aux discutables.

Chaque interaction rend diffray plus intelligent. Après un mois, vous aurez un réviseur IA personnalisé qui connaît vos conventions mieux qu'un nouveau développeur après l'onboarding.

Conclusion : Une IA Qui Grandit Avec Votre Équipe

La philosophie "chaque erreur devient une règle" n'est pas qu'une phrase accrocheuse. C'est un principe architectural qui sépare les outils jouets des solutions prêtes pour la production.

diffray est construit sur trois piliers :

Sous-agents avec contexte isolé

Pour la précision sans pollution

Création de règles depuis le feedback

Pour l'apprentissage sans travail manuel

Validation sur l'historique

Pour la confiance dans les améliorations

Le résultat : une revue de code IA qui s'améliore à chaque PR. Non pas parce que le modèle a été mis à jour, mais parce qu'elle apprend de votre équipe.

Commencez à Former Votre Réviseur IA Aujourd'hui

Installez diffray et ouvrez une PR. C'est gratuit pour les dépôts publics et inclut un niveau gratuit généreux pour les dépôts privés.

Articles Connexes