Theorie ist wichtig — aber jetzt bauen wir ein vollständiges Multi-Agent-System. In diesem Kapitel erstellen Sie eine Research-Analyze-Report-Pipeline mit Quality Gates, Human Review und allem, was für Production nötig ist.
Trigger (Webhook/Schedule)
│
▼
┌──────────────┐ ┌──────────────┐ ┌──────────────┐
│ Research │────▶│ Analyze │────▶│ Report │
│ Agent │ │ Agent │ │ Agent │
└──────────────┘ └──────────────┘ └──────────────┘
│ │ │
▼ ▼ ▼
Quality Gate 1 Quality Gate 2 Quality Gate 3
(≥ 3 Quellen?) (Confidence ≥ 80?) (Score ≥ 85?)
│ │ │
▼ ▼ ▼
Pass/Retry Pass/Retry Pass/Human Review
Der Research Agent sammelt Informationen aus mehreren Quellen.
| Node | Typ | Konfiguration |
|---|---|---|
| Trigger | Webhook | POST /pipeline/start |
| Research Prompt | Set Node | System-Prompt + Thema aus Trigger |
| LLM Call | OpenAI / Anthropic | model: gpt-4o, max_tokens: 2000 |
| Parse Output | Function | JSON-Validierung + Schema-Check |
| Quality Gate | IF Node | findings.length ≥ 3 UND confidence ≥ 70 |
| Save State | PostgreSQL | INSERT INTO agent_state |
{
"conditions": {
"all": [
{ "field": "findings_count", "operator": "gte", "value": 3 },
{ "field": "confidence", "operator": "gte", "value": 70 },
{ "field": "knowledge_gaps", "operator": "lte_length", "value": 2 }
]
},
"on_fail": "retry_with_expanded_scope",
"max_retries": 2
}
Der Analyze Agent verarbeitet die Research-Ergebnisse und extrahiert Kernaussagen.
System: Du bist ein Analyse-Spezialist. Basierend auf den Research-Daten:
1. Identifiziere die 3-5 wichtigsten Erkenntnisse
2. Bewerte Trends und Muster
3. Erstelle eine SWOT-Analyse wenn anwendbar
4. Gib Handlungsempfehlungen mit Priorität (hoch/mittel/niedrig)
Input: {{ $json.research_findings }}
Output-Format: JSON mit { insights: [], trends: [], recommendations: [] }
| Kriterium | Schwellenwert | Aktion bei Fehler |
|---|---|---|
| Insights gefunden | ≥ 3 | Retry mit Hinweis |
| Confidence Score | ≥ 80 | Retry mit mehr Kontext |
| Recommendations | ≥ 1 pro Insight | Retry mit expliziter Anweisung |
| JSON-Validierung | Gültiges Schema | Sofortiger Retry |
Der Report Agent erstellt den finalen Bericht aus Research und Analyse.
# {{ topic }} — Analyse-Bericht
**Erstellt:** {{ date }}
**Confidence:** {{ overall_confidence }}%
**Quellen:** {{ sources_count }}
## Executive Summary
{{ executive_summary }}
## Kernerkenntnisse
{{ insights_formatted }}
## Handlungsempfehlungen
{{ recommendations_table }}
## Anhang: Quellenverzeichnis
{{ sources_list }}
Nicht jeder Bericht sollte automatisch veröffentlicht werden:
Report Agent Output
│
▼
┌──────────────┐
│ Quality Gate │
│ Score ≥ 85? │
└──────┬───────┘
│
┌────┴────┐
▼ ▼
JA NEIN
│ │
▼ ▼
Auto- Slack-Nachricht
Publish an Reviewer
│
▼
Human Review
(Approve/Edit/Reject)
| Aktion | Workflow |
|---|---|
| Approve | Bericht wird veröffentlicht |
| Edit | Bericht geht zurück an Report Agent mit Feedback |
| Reject | Pipeline wird gestoppt, DLQ-Eintrag |
Bevor Sie Ihre Multi-Agent-Pipeline live schalten:
| Bereich | Checkliste |
|---|---|
| Error Handling | ✅ Retries konfiguriert, ✅ Fallback Agents definiert, ✅ Circuit Breaker aktiv |
| Monitoring | ✅ Execution Logging, ✅ Latenz-Metriken, ✅ Cost Tracking |
| Quality Gates | ✅ Mindestens 1 Gate pro Agent, ✅ Human Review für finale Ausgabe |
| Security | ✅ API Keys in Credentials (nicht im Workflow), ✅ Rate Limits gesetzt |
| Skalierung | ✅ Concurrency Limits pro Agent, ✅ Queue für Lastspitzen |
| Dokumentation | ✅ Agent-Rollen dokumentiert, ✅ Input/Output-Verträge definiert |
Praxis-Tipp: Bauen Sie die Pipeline inkrementell auf: Erst nur den Research Agent mit Quality Gate. Dann den Analyze Agent hinzufügen. Dann den Report Agent. Jede Stufe wird einzeln getestet und verifiziert, bevor die nächste hinzukommt. Planen Sie 2 Wochen für einen robusten Production-Deploy ein.
Was ist der Zweck von Quality Gates in einer Multi-Agent-Pipeline?