Architecture Multi-Agents

Pourquoi
Plusieurs Agents ?

La plupart des outils de revue de code IA envoient votre code à un LLM avec "revois ceci" et espèrent le meilleur. diffray utilise des agents spécialisés qui enquêtent, vérifient et valident — comme une équipe de reviewers experts.

Question légitime

"Un seul prompt ne peut-il pas faire cela ?"

"Si les LLMs modernes peuvent gérer 200k tokens, pourquoi ne pas simplement envoyer le diff avec le contexte pertinent et laisser le modèle comprendre ? Quel est l'intérêt de toute cette complexité d'agents ?"

Le problème fondamental : Votre base de code ne rentre pas

Un prompt ne peut voir que ce que vous lui envoyez. Pour une revue de code significative, vous avez besoin de contexte provenant de toute votre base de code — imports, dépendances, fichiers connexes, tests, conventions.

Base de code moyenne : 100k-500k+ lignes
Fenêtre de contexte LLM : ~200k tokens max
Plafond de performance pratique : ~25-30k tokens

Même si ça rentrait — Ça ne fonctionnerait pas

La recherche prouve que déverser plus de contexte dans les LLMs nuit activement à la performance. C'est ce qu'on appelle la "dilution de contexte".

10-20%

baisse de performance avec trop de documents

Courbe en U

l'info au milieu est "perdue"

60-80%

taux de faux positifs dans les outils à déversement de contexte

Lire la recherche : Pourquoi le contexte curé bat le volume de contexte →

Ce que les agents fournissent réellement

Les agents ne se contentent pas de "lire les prompts mieux". Ils enquêtent activement votre base de code :

Récupération de contexte sélective

Récupérer uniquement les fichiers pertinents à la demande, ne pas tout déverser d'avance

Vérification d'hypothèses

"Je suspecte une incompatibilité de type" → rechercher les appelants → confirmer avec l'analyse statique

Enquête itérative

Suivre les pistes à travers les fichiers, creuser plus profondément quand quelque chose semble suspect

Intégration d'outils

Exécuter des linters, vérificateurs de types et analyseurs pour vérifier les résultats avec de vraies données

Un prompt voit ce que vous lui donnez.

Un agent trouve ce dont il a besoin.

Précision plutôt que volume

Gestion du contexte curé

La différence entre une revue utile et du bruit n'est pas la quantité de contexte que vous avez — c'est d'avoir le bon contexte

Comment diffray cure le contexte

Analyse du graphe de dépendances

Avant que la revue ne commence, nous construisons une carte de la façon dont les fichiers se connectent — imports, exports, définitions de types et chaînes d'appels

Filtrage intelligent

Chaque agent reçoit uniquement le contexte pertinent pour sa tâche — l'agent de sécurité obtient les flux d'authentification, pas le style UI

Récupération à la demande

Les agents récupèrent du contexte supplémentaire uniquement quand nécessaire — suivant les pistes sans surcharge initiale

Contexte en couches

Le contexte central (diff, types) reste résident ; le contexte environnant (appelants, tests) chargé au besoin

Approche par déversement de contexte

200k tokens de tout — diff, fichiers complets, dépendances aléatoires...

Le signal se noie dans le bruit
Détails importants dans le "milieu perdu"
Attention dispersée sur du code non pertinent

Approche par contexte curé

Morceaux ciblés — diff + dépendances directes + patterns pertinents

Chaque token a un but
L'info critique reste en focus
Attention complète sur ce qui compte
En savoir plus sur nos moteurs IA →

Le problème avec "Demandez juste au LLM"

Un seul appel LLM révisant du code a des limitations fondamentales

Appel LLM unique
Ne voit que ce que vous envoyez

Limité au diff que vous fournissez

Génération en un coup

Pas d'itération ou de vérification

Ne peut pas suivre les imports

Aveugle aux dépendances et au contexte

Hallucinations non vérifiées

Aucun moyen de valider les affirmations

Fenêtre de contexte fixe

Attention dispersée sur toutes les préoccupations

Conseils génériques

"Assurez-vous que les appelants sont mis à jour"

Système basé sur des agents
Explore la base de code de manière autonome

Navigue dans tout votre projet

Analyse itérative

Suit les pistes, creuse plus profond

Navigue dans la structure du projet

Comprend les imports et dépendances

Valide avec de vrais outils

Exécute des analyseurs statiques pour confirmer

Attention ciblée

Chaque agent se spécialise dans un domaine

Résultats spécifiques

"3 sites d'appel ont des incompatibilités de type aux lignes 45, 89, 112"

La différence est entre spéculation et enquête.

Qu'est-ce qui rend un agent différent ?

Un agent est un système IA qui peut penser, agir et vérifier

Utiliser des outils

Lire des fichiers, rechercher du code, exécuter des analyseurs statiques

Prendre des décisions

Choisir quoi enquêter en fonction des résultats

Itérer

Suivre les pistes, vérifier les hypothèses, creuser plus profond

S'auto-corriger

Valider le raisonnement contre de vraies données

Ce que les agents diffray font réellement

Quand diffray révise votre PR, les agents ne se contentent pas de "regarder le diff"

Tracer les dépendances

Suivre les imports pour comprendre comment le code modifié affecte tout le système

Vérifier les fichiers connexes

Examiner les tests, configs et documentation pour le contexte

Vérifier les hypothèses

Exécuter l'analyse statique pour confirmer que les problèmes suspectés existent réellement

Croiser les références

Rechercher les définitions de types, contrats API et conventions

Exemple réel

Considérez un changement de signature de fonction dans une PR :

Approche LLM unique

"Ceci change le type de retour, assurez-vous que les appelants sont mis à jour"

Conseil générique. Pas de spécificités.

Approche par agent
  1. Recherche toutes les utilisations de cette fonction
  2. Identifie 3 sites d'appel avec des incompatibilités de type
  3. Vérifie si les tests couvrent ces scénarios
  4. Rapporte les fichiers et numéros de ligne spécifiques

→ "Trouvé 3 changements cassants : src/api/users.ts:45, src/hooks/useAuth.ts:89, src/utils/validate.ts:112"

Conscience complète de la base de code

Le diff n'est pas suffisant

Pour vraiment comprendre les changements, vous devez voir comment ils s'intègrent dans toute la base de code

Ce qu'une revue diff-seulement voit

Nouvelle fonction formatUserName() ajoutée

Semble syntaxiquement correcte

Pas de bugs évidents dans ces 20 lignes

Verdict : "LGTM" — mais manquant complètement la vue d'ensemble

Ce qu'un agent conscient de la base de code voit

Cette fonction duplique utils/names.ts:formatName()

La fonction existante gère des cas limites que celle-ci manque

3 autres fichiers utilisent déjà l'utilitaire existant

Ceci brise la convention de nommage dans /docs/CONVENTIONS.md

Verdict : "Envisagez d'utiliser formatName() existant de utils/names.ts"

Ce que les agents diffray vérifient au-delà du diff :

Détection de duplicats

Le développeur réinvente-t-il la roue ? Une solution similaire existe-t-elle déjà dans la base de code ?

Cohérence des patterns

Ces changements suivent-ils les patterns établis ? Ou introduisent-ils une approche conflictuelle ?

Analyse d'impact

Comment ces changements affectent-ils le reste du système ? Qu'est-ce qui dépend du code modifié ?

Respect des conventions

Les conventions d'équipe et les standards documentés sont-ils suivis ?

Un diff vous montre ce qui a changé. Le contexte complet de la base de code vous montre si cela aurait dû.

Le problème de dilution du contexte

Un seul LLM révisant tous les aspects du code simultanément fait face à un problème fondamental : dilution du contexte.

Alors qu'il essaie de vérifier la sécurité, la performance, les bugs et le style en même temps, son attention se disperse. Plus il jongle de préoccupations, plus il est susceptible de manquer des problèmes.

Solution de diffray : Agents spécialisés, chacun avec son propre focus étroit. Comme avoir une équipe de spécialistes vs. un généraliste essayant de tout faire.

Chaque agent :

Contexte curé

Commence avec un contexte précisément rassemblé et ciblé — uniquement les fichiers, dépendances et patterns pertinents pour sa tâche spécifique

Reste concentré

Un travail, fait à fond — l'agent de sécurité ne cherche que des vulnérabilités, ne dérive jamais vers le style

Va en profondeur

Peut consacrer tout son contexte à sa spécialité — ne divise pas l'attention sur 10 préoccupations différentes

N'oublie jamais

Ne perd pas le fil en cours de revue — chaque règle, chaque vérification, chaque fois, sans exception

Ne se fatigue jamais

La 50ème PR de la journée reçoit la même attention que la première — pas de fatigue, pas de précipitation, pas de raccourcis

9 Agents Spécialisés

Rencontrez l'équipe de revue

Security, Performance, Bugs, Architecture, Testing, et plus — chaque agent apporte une expertise approfondie dans son domaine. Voyez exactement ce que chacun fait.

Les moteurs derrière diffray

Des fondations puissantes permettant une vraie collaboration multi-agents

Moteur principal

  • Derniers modèles Anthropic (Haiku, Sonnet, Opus)
  • Sélection de modèle adaptée à la tâche
  • Recherche de fichiers intelligente
  • Gestion de tâches intégrée

Moteur d'outils

  • Intégration d'analyseur statique
  • Vérification d'hypothèses
  • Sortie d'outil concrète
  • Faux positifs considérablement réduits

Architecture Multi-Agents

  • Exécution parallèle des agents
  • Contexte de base de code partagé
  • Déduplication des résultats
  • Validation croisée entre agents

Le pipeline de revue par phases

Chaque revue passe par un pipeline multi-phases, chaque phase optimisée pour son but

1

Clone

Récupérer le repo & checkout de la PR

2

Préparation

Construire le graphe de dépendances

3

Résumé

LLM résume les changements

4

Triage

Router les fichiers vers les agents

5

Règles

Charger & filtrer les règles

6

Revue

Analyse parallèle des agents

7

Dédupe

Fusionner & renoter

8

Validation

Vérifier & renoter

9

Rapport

Générer les commentaires PR

Le résultat

Un système multi-agents qui combine le raisonnement IA avec l'analyse concrète du code — fournissant des résultats précis et vérifiés au lieu de spéculation.

Ressource Gratuite

Playbook de revue de code IA

Insights basés sur les données de 50+ sources de recherche. Pourquoi les développeurs passent 5-6 heures hebdomadaires sur la revue, pourquoi le code généré par IA nécessite plus de vigilance, et comment implémenter des outils IA en lesquels les développeurs ont vraiment confiance.

Découvrez la différence
que font les agents

Voyez comment l'enquête bat la spéculation. Essayez diffray gratuitement sur votre prochaine PR.

Essai gratuit de 14 jours
Aucune carte bancaire requise
Configuration en 2 minutes