Lektion 4 von 6·10 Min Lesezeit

AI-Nodes: LLM-Integration

n8n bietet native AI-Nodes, die eine direkte Integration mit großen Sprachmodellen ermöglichen — ohne eine Zeile Code. In dieser Lektion lernen Sie, wie Sie OpenAI, Anthropic und Ollama in Ihre Workflows einbinden.

Verfügbare AI-Nodes

NodeFunktionProvider
AI AgentAutonomer Agent mit Tool-UseOpenAI, Anthropic
Basic LLM ChainEinfacher LLM-Aufruf mit PromptAlle Provider
Summarization ChainAutomatische TextzusammenfassungAlle Provider
Information ExtractorStrukturierte Daten aus Text extrahierenAlle Provider
Text ClassifierText in Kategorien einordnenAlle Provider
Sentiment AnalysisStimmungserkennungAlle Provider
EmbeddingsVektor-Repräsentationen erzeugenOpenAI, Ollama

Credential Management

OpenAI einrichten

  1. Navigieren Sie zu CredentialsNew Credential
  2. Wählen Sie OpenAI API
  3. Fügen Sie Ihren API Key ein
  4. Optional: Organisation-ID und Base-URL (für Azure OpenAI)

Anthropic einrichten

  1. CredentialsNew CredentialAnthropic
  2. API Key aus der Anthropic Console einfügen
  3. Wählen Sie das gewünschte Modell (Claude Sonnet 4, Claude Opus 4)

Ollama (Self-Hosted)

Für maximale Datenkontrolle: Ollama läuft lokal ohne API-Kosten.

# Ollama installieren und Modell laden
ollama pull llama3.1
ollama pull nomic-embed-text

In n8n: Base-URL auf http://ollama:11434 setzen (Docker-Netzwerk) oder http://host.docker.internal:11434 (lokale Installation).

Praxis-Tipp: Speichern Sie API Keys niemals in Workflow-Daten. Nutzen Sie ausschließlich das Credential-Management von n8n — die Keys werden mit dem N8N_ENCRYPTION_KEY verschlüsselt gespeichert.

Prompt-Templates

Die AI-Nodes unterstützen dynamische Prompts mit Expressions:

Du bist ein erfahrener Analyst. Analysiere folgende Kundennachricht:

Nachricht: {{ $json.message }}
Kunde: {{ $json.customer_name }}
Produkt: {{ $json.product }}

Antworte im JSON-Format mit den Feldern:
- sentiment: "positiv", "neutral" oder "negativ"
- category: Hauptkategorie der Anfrage
- priority: "hoch", "mittel" oder "niedrig"
- summary: Zusammenfassung in einem Satz

System-Prompts richtig nutzen

  • System-Prompt: Definiert die Rolle und das Verhalten des Modells
  • User-Prompt: Enthält die dynamischen Daten aus dem Workflow
  • Trennung ermöglicht Wiederverwendbarkeit und einfaches Testing

Structured Output Parsing

JSON-Output erzwingen

Verwenden Sie den Output Parser (Sub-Node), um das LLM-Ergebnis als strukturiertes JSON zu erhalten:

{
  "sentiment": "positiv",
  "category": "Produktfrage",
  "priority": "mittel",
  "summary": "Kunde fragt nach Verfügbarkeit des Premium-Plans."
}

Schema-Definition

Definieren Sie ein JSON-Schema, damit n8n die Antwort automatisch validiert. Fehlerhafte Antworten werden abgefangen und können neu angefragt werden.

Best Practices für AI-Nodes

  1. Temperatur niedrig halten (0.0–0.3) für konsistente, faktische Antworten
  2. Max Tokens begrenzen — verhindert unnötig lange und teure Antworten
  3. Retry bei Fehlern aktivieren (Rate-Limits, Timeouts)
  4. Logging aktivieren — speichern Sie Prompts und Antworten für Audit und Debugging
  5. Modell-Auswahl: Claude Sonnet für schnelle Tasks, Claude Opus für komplexe Analysen

Praxis-Tipp: Testen Sie Prompts zuerst im Playground des jeweiligen Providers, bevor Sie sie in n8n einbauen. So iterieren Sie schneller und sparen API-Kosten während der Entwicklung.