Multi-Agenten-Architektur

Warum
mehrere Agenten?

Die meisten AI Code Review Tools senden Ihren Code an ein LLM mit "review this" und hoffen auf das Beste. diffray verwendet spezialisierte Agenten, die untersuchen, verifizieren und validieren — wie ein Team von Experten-Reviewern.

Berechtigte Frage

"Kann das nicht ein einzelner Prompt?"

"Wenn moderne LLMs 200k Tokens verarbeiten können, warum nicht einfach den Diff mit relevantem Kontext senden und das Modell herausfinden lassen? Was bringt die ganze Agenten-Komplexität?"

Das fundamentale Problem: Ihre Codebase passt nicht

Ein Prompt kann nur sehen, was Sie ihm senden. Für bedeutungsvolles Code Review brauchen Sie Kontext aus Ihrer gesamten Codebase — Imports, Dependencies, verwandte Dateien, Tests, Konventionen.

Durchschnittliche Codebase: 100k-500k+ Zeilen
LLM Kontextfenster: ~200k Tokens max
Praktische Performance-Grenze: ~25-30k Tokens

Selbst wenn es passen würde — es würde nicht funktionieren

Forschung beweist, dass mehr Kontext in LLMs zu packen der Performance aktiv schadet. Das nennt man "Kontextverwässerung."

10-20%

Performance-Verlust durch zu viele Dokumente

U-Kurve

Info in der Mitte geht "verloren"

60-80%

False-Positive-Rate bei Context-Dump-Tools

Forschung lesen: Warum kuratierter Kontext Kontextmenge schlägt →

Was Agenten wirklich bieten

Agenten "lesen Prompts nicht besser." Sie untersuchen aktiv Ihre Codebase:

Selektives Kontext-Retrieval

Holen nur relevante Dateien on-demand, nicht alles upfront dumpen

Hypothesen-Verifizierung

"Ich vermute einen Typ-Mismatch" → Aufrufer suchen → mit statischer Analyse bestätigen

Iterative Investigation

Leads über Dateien hinweg verfolgen, tiefer graben wenn etwas verdächtig aussieht

Tool-Integration

Linter, Type-Checker und Analyzer ausführen, um Erkenntnisse mit echten Daten zu verifizieren

Ein Prompt sieht, was Sie ihm geben.

Ein Agent findet, was er braucht.

Präzision statt Volumen

Kuratiertes Kontext-Management

Der Unterschied zwischen nützlichem Review und Rauschen ist nicht, wie viel Kontext Sie haben — es ist den richtigen Kontext zu haben

Wie diffray Kontext kuratiert

Dependency-Graph-Analyse

Vor dem Review erstellen wir eine Karte, wie Dateien verbunden sind — Imports, Exports, Typdefinitionen und Call-Chains

Smart Filtering

Jeder Agent erhält nur den für seine Aufgabe relevanten Kontext — Security-Agent bekommt Auth-Flows, nicht UI-Styling

On-Demand-Retrieval

Agenten holen zusätzlichen Kontext nur bei Bedarf — Leads verfolgen ohne Upfront-Überlastung

Geschichteter Kontext

Kern-Kontext (Diff, Typen) bleibt resident; umgebender Kontext (Aufrufer, Tests) bei Bedarf geladen

Context-Dump-Ansatz

200k Tokens von allem — Diff, vollständige Dateien, zufällige Dependencies...

Signal ertrinkt im Rauschen
Wichtige Details in der "verlorenen Mitte"
Aufmerksamkeit auf irrelevanten Code verteilt

Kuratierter Kontext-Ansatz

Fokussierte Chunks — Diff + direkte Dependencies + relevante Muster

Jeder Token dient einem Zweck
Kritische Info bleibt im Fokus
Volle Aufmerksamkeit auf das Wesentliche
Mehr über unsere KI-Engines erfahren →

Das Problem mit "Frag einfach das LLM"

Ein einzelner LLM-Call für Code Review hat fundamentale Grenzen

Einzelner LLM-Call
Sieht nur, was Sie senden

Beschränkt auf den Diff, den Sie bereitstellen

One-Shot-Generierung

Keine Iteration oder Verifizierung

Kann Imports nicht verfolgen

Blind für Dependencies und Kontext

Halluzinationen ungeprüft

Keine Möglichkeit, Behauptungen zu validieren

Festes Kontextfenster

Aufmerksamkeit dünn über alle Belange verteilt

Generischer Rat

"Stellen Sie sicher, dass Aufrufer aktualisiert werden"

Agenten-basiertes System
Erkundet Codebase autonom

Navigiert durch Ihr gesamtes Projekt

Iterative Analyse

Verfolgt Leads, gräbt tiefer

Navigiert Projektstruktur

Versteht Imports und Dependencies

Validiert mit echten Tools

Führt statische Analyzer zur Bestätigung aus

Fokussierte Aufmerksamkeit

Jeder Agent spezialisiert sich auf einen Bereich

Spezifische Erkenntnisse

"3 Aufrufstellen haben Typ-Mismatches in Zeilen 45, 89, 112"

Der Unterschied ist zwischen Spekulation und Investigation.

Was macht einen Agenten anders?

Ein Agent ist ein KI-System, das denken, handeln und verifizieren kann

Tools nutzen

Dateien lesen, Code durchsuchen, statische Analyzer ausführen

Entscheidungen treffen

Wählen, was basierend auf Erkenntnissen untersucht werden soll

Iterieren

Leads verfolgen, Hypothesen verifizieren, tiefer graben

Selbst korrigieren

Reasoning gegen echte Daten validieren

Was diffray Agenten wirklich tun

Wenn diffray Ihren PR reviewed, "schauen" Agenten nicht nur "auf den Diff"

Dependencies verfolgen

Imports folgen, um zu verstehen, wie geänderter Code das gesamte System beeinflusst

Verwandte Dateien prüfen

Tests, Configs und Dokumentation für Kontext untersuchen

Annahmen verifizieren

Statische Analyse ausführen, um zu bestätigen, dass vermutete Issues wirklich existieren

Querverweisen

Typdefinitionen, API-Verträge und Konventionen nachschlagen

Echtes Beispiel

Betrachten Sie eine Änderung der Funktionssignatur in einem PR:

Einzelnes LLM-Ansatz

"Dies ändert den Rückgabetyp, stellen Sie sicher, dass Aufrufer aktualisiert werden"

Generischer Rat. Keine Spezifika.

Agenten-Ansatz
  1. Sucht nach allen Verwendungen dieser Funktion
  2. Identifiziert 3 Aufrufstellen mit Typ-Mismatches
  3. Prüft, ob Tests diese Szenarien abdecken
  4. Meldet spezifische Dateien und Zeilennummern

→ "3 Breaking Changes gefunden: src/api/users.ts:45, src/hooks/useAuth.ts:89, src/utils/validate.ts:112"

Volle Codebase-Awareness

Der Diff reicht nicht

Um Änderungen wirklich zu verstehen, müssen Sie sehen, wie sie in die gesamte Codebase passen

Was ein Diff-only Review sieht

Neue Funktion formatUserName() hinzugefügt

Sieht syntaktisch korrekt aus

Keine offensichtlichen Bugs in diesen 20 Zeilen

Urteil: "LGTM" — aber das größere Bild komplett übersehen

Was ein codebase-bewusster Agent sieht

Diese Funktion dupliziert utils/names.ts:formatName()

Existierende Funktion behandelt Edge Cases, die diese übersieht

3 andere Dateien nutzen bereits das existierende Utility

Dies bricht die Namenskonvention in /docs/CONVENTIONS.md

Urteil: "Erwägen Sie, existierendes formatName() aus utils/names.ts zu verwenden"

Was diffray Agenten über den Diff hinaus prüfen:

Duplikaterkennung

Erfindet der Entwickler das Rad neu? Existiert bereits eine ähnliche Lösung in der Codebase?

Musterkonsistenz

Folgen diese Änderungen etablierten Mustern? Oder führen sie einen widersprüchlichen Ansatz ein?

Impact-Analyse

Wie beeinflussen diese Änderungen den Rest des Systems? Was hängt vom geänderten Code ab?

Konventions-Einhaltung

Werden Team-Konventionen und dokumentierte Standards befolgt?

Ein Diff zeigt Ihnen was sich geändert hat. Voller Codebase-Kontext zeigt Ihnen ob es das hätte sollen.

Das Kontextverwässerungs-Problem

Ein einzelnes LLM, das alle Aspekte von Code gleichzeitig reviewed, steht vor einem fundamentalen Problem: Kontextverwässerung.

Wenn es versucht, Sicherheit, Performance, Bugs und Stil gleichzeitig zu prüfen, verteilt sich seine Aufmerksamkeit dünn. Je mehr Belange es jongliert, desto wahrscheinlicher übersieht es Issues.

diffrays Lösung: Spezialisierte Agenten, jeder mit seinem eigenen engen Fokus. Wie ein Team von Spezialisten vs. ein Generalist, der alles versucht.

Jeder Agent:

Kuratierter Kontext

Startet mit präzise gesammeltem, fokussiertem Kontext — nur die relevanten Dateien, Dependencies und Muster für seine spezifische Aufgabe

Bleibt fokussiert

Eine Aufgabe, gründlich erledigt — Security-Agent sucht nur Schwachstellen, driftet nie zu Styling

Geht in die Tiefe

Kann vollen Kontext für seine Spezialität aufwenden — teilt Aufmerksamkeit nicht auf 10 verschiedene Belange

Vergisst nie

Verliert mitten im Review nicht den Faden — jede Regel, jede Prüfung, jedes Mal, ohne Ausnahme

Wird nie müde

50. PR des Tages bekommt die gleiche Aufmerksamkeit wie der erste — keine Ermüdung, kein Hetzen, keine Abkürzungen

9 spezialisierte Agenten

Das Review-Team kennenlernen

Sicherheit, Performance, Bugs, Architektur, Testing und mehr — jeder Agent bringt tiefes Fachwissen in seinen Bereich. Sehen Sie genau, was jeder tut.

Die Engines hinter diffray

Leistungsstarke Grundlagen, die echte Multi-Agenten-Zusammenarbeit ermöglichen

Core Engine

  • Neueste Anthropic-Modelle (Haiku, Sonnet, Opus)
  • Aufgabenangepasste Modellauswahl
  • Intelligente Dateisuche
  • Eingebautes Task-Management

Tooling Engine

  • Integration statischer Analyzer
  • Hypothesen-Verifizierung
  • Konkrete Tool-Outputs
  • Drastisch reduzierte False Positives

Multi-Agenten-Architektur

  • Parallele Agenten-Ausführung
  • Geteilter Codebase-Kontext
  • Erkenntnisse-Deduplizierung
  • Cross-Agent-Validierung

Die phasenbasierte Review-Pipeline

Jedes Review durchläuft eine Multi-Phase-Pipeline, jede Phase für ihren Zweck optimiert

1

Clone

Repo fetchen & PR auschecken

2

Data Prep

Dependency-Graph aufbauen

3

Summarize

LLM fasst Änderungen zusammen

4

Triage

Dateien an Agenten routen

5

Rules

Regeln laden & filtern

6

Review

Parallele Agenten-Analyse

7

Dedupe

Zusammenführen & neu bewerten

8

Validation

Verifizieren & neu bewerten

9

Report

PR-Kommentare generieren

Das Ergebnis

Ein Multi-Agenten-System, das KI-Reasoning mit konkreter Code-Analyse kombiniert — liefert genaue, verifizierte Erkenntnisse statt Spekulation.

Kostenlose Ressource

AI Code Review Playbook

Datengestützte Erkenntnisse aus 50+ Forschungsquellen. Warum Entwickler 5-6 Stunden wöchentlich für Reviews aufwenden, warum KI-generierter Code mehr Prüfung braucht, und wie man KI-Tools implementiert, denen Entwickler wirklich vertrauen.

Erleben Sie den Unterschied
den Agenten machen

Sehen Sie, wie Investigation Spekulation schlägt. Testen Sie diffray kostenlos bei Ihrem nächsten PR.

14 Tage kostenlos
Keine Kreditkarte erforderlich
2-Minuten-Einrichtung