Ein Agent ohne Gedächtnis ist wie ein Mitarbeiter, der jeden Morgen alles vergisst. Memory-Systeme geben Agents die Fähigkeit, aus vergangenen Interaktionen zu lernen, Kontext über Sessions hinweg zu bewahren und langfristig besser zu werden.
Das aktuelle Gespräch — die Nachrichten der laufenden Session. Begrenzt durch das Context-Window des LLMs.
Implementierung:
Informationen, die über Sessions hinweg gespeichert werden: Nutzerpräferenzen, gelernte Fakten, Projektstatus.
Implementierung:
Erinnerungen an vergangene Situationen und deren Ausgang. „Letztes Mal hat Strategie X funktioniert."
Implementierung:
Ähnlich wie RAG — der Agent hat Zugriff auf eine Wissensbasis, die per Embedding-Suche durchsucht wird.
Implementierung:
interface AgentState {
messages: Message[] // Chat-Verlauf
currentGoal: string // Aktives Ziel
plan: Step[] // Geplante Schritte
completedSteps: Step[] // Erledigte Schritte
context: Record<string, unknown> // Gesammelter Kontext
}
Speichern Sie den Agent-State nach jedem Schritt. Bei Fehlern können Sie zum letzten validen State zurückrollen — statt von vorne zu starten.
Für strukturierte Workflows (z. B. Onboarding-Agent): Definierte Zustände mit erlaubten Übergängen.
| Use Case | Empfohlene Memory | Beispiel |
|---|---|---|
| Einfacher Chatbot | Short-Term only | FAQ-Bot |
| Persönlicher Assistent | Short + Long-Term | Kalender-Agent |
| Research-Agent | Short + Vector + Episodic | Marktanalyse-Agent |
| Workflow-Agent | Short + State Machine | Onboarding-Agent |
Praxis-Tipp: Starten Sie mit Short-Term Memory. Fügen Sie Long-Term Memory hinzu, wenn Nutzer über mehrere Sessions interagieren. Episodic Memory lohnt sich erst, wenn der Agent komplexe, wiederkehrende Aufgaben löst.