n8n bietet native AI-Nodes, die eine direkte Integration mit großen Sprachmodellen ermöglichen — ohne eine Zeile Code. In dieser Lektion lernen Sie, wie Sie OpenAI, Anthropic und Ollama in Ihre Workflows einbinden.
| Node | Funktion | Provider |
|---|---|---|
| AI Agent | Autonomer Agent mit Tool-Use | OpenAI, Anthropic |
| Basic LLM Chain | Einfacher LLM-Aufruf mit Prompt | Alle Provider |
| Summarization Chain | Automatische Textzusammenfassung | Alle Provider |
| Information Extractor | Strukturierte Daten aus Text extrahieren | Alle Provider |
| Text Classifier | Text in Kategorien einordnen | Alle Provider |
| Sentiment Analysis | Stimmungserkennung | Alle Provider |
| Embeddings | Vektor-Repräsentationen erzeugen | OpenAI, Ollama |
Für maximale Datenkontrolle: Ollama läuft lokal ohne API-Kosten.
# Ollama installieren und Modell laden
ollama pull llama3.1
ollama pull nomic-embed-text
In n8n: Base-URL auf http://ollama:11434 setzen (Docker-Netzwerk) oder http://host.docker.internal:11434 (lokale Installation).
Praxis-Tipp: Speichern Sie API Keys niemals in Workflow-Daten. Nutzen Sie ausschließlich das Credential-Management von n8n — die Keys werden mit dem
N8N_ENCRYPTION_KEYverschlüsselt gespeichert.
Die AI-Nodes unterstützen dynamische Prompts mit Expressions:
Du bist ein erfahrener Analyst. Analysiere folgende Kundennachricht:
Nachricht: {{ $json.message }}
Kunde: {{ $json.customer_name }}
Produkt: {{ $json.product }}
Antworte im JSON-Format mit den Feldern:
- sentiment: "positiv", "neutral" oder "negativ"
- category: Hauptkategorie der Anfrage
- priority: "hoch", "mittel" oder "niedrig"
- summary: Zusammenfassung in einem Satz
Verwenden Sie den Output Parser (Sub-Node), um das LLM-Ergebnis als strukturiertes JSON zu erhalten:
{
"sentiment": "positiv",
"category": "Produktfrage",
"priority": "mittel",
"summary": "Kunde fragt nach Verfügbarkeit des Premium-Plans."
}
Definieren Sie ein JSON-Schema, damit n8n die Antwort automatisch validiert. Fehlerhafte Antworten werden abgefangen und können neu angefragt werden.
Praxis-Tipp: Testen Sie Prompts zuerst im Playground des jeweiligen Providers, bevor Sie sie in n8n einbauen. So iterieren Sie schneller und sparen API-Kosten während der Entwicklung.