Lektion 3 von 5·12 Min Lesezeit

Fine-Tuning in der Praxis

Theorie ist schön — aber wie funktioniert Fine-Tuning konkret? Hier zeigen wir die drei gängigsten Wege: Managed (OpenAI/Anthropic), Open Source mit LoRA/QLoRA, und wann welcher Ansatz passt.

Weg 1: Managed Fine-Tuning (OpenAI)

Der einfachste Einstieg — keine eigene GPU nötig.

# 1. Daten vorbereiten (JSONL)
openai tools fine_tunes.prepare_data -f training_data.jsonl

# 2. Fine-Tuning starten
openai api fine_tuning.jobs.create \
  -t training_data.jsonl \
  -m gpt-4o-mini-2025-09-01 \
  --suffix "mein-usecase"

# 3. Status prüfen
openai api fine_tuning.jobs.list

# 4. Fertiges Modell nutzen
openai api chat.completions.create \
  -m ft:gpt-4o-mini-2025-09-01:org:mein-usecase:abc123 \
  -g user "Schreibe einen Produkttext für..."

Kosten (ca.): $8/1M Training-Tokens, $3/1M Inference-Tokens Dauer: 30 Min – 2 Stunden (je nach Datenmenge) Limitierung: Nur OpenAI-Modelle, kein Zugriff auf Gewichte

Weg 2: Anthropic Fine-Tuning

Seit 2025 bietet Anthropic Fine-Tuning für Claude-Modelle an.

  • API-basiert, ähnlich wie OpenAI
  • Fokus auf Safety und Constitutional AI
  • Höhere Kosten, aber starke Baseline-Modelle
  • Ideal, wenn Claude bereits Ihr Haupt-LLM ist

Weg 3: Open Source mit LoRA / QLoRA

Für volle Kontrolle — auf eigener Hardware oder Cloud-GPUs.

Was ist LoRA?

Low-Rank Adaptation trainiert nicht alle Modell-Parameter, sondern nur kleine, zusätzliche Matrizen. Das reduziert GPU-Bedarf drastisch.

MethodeGPU-RAMTrainingszeitQualität
Full Fine-Tuning80+ GBStunden–Tage✅ Maximal
LoRA16–24 GB30–60 Min✅ Sehr gut
QLoRA8–12 GB30–60 Min✅ Gut

QLoRA — LoRA + Quantisierung

QLoRA lädt das Basismodell in 4-Bit und trainiert LoRA-Adapter in 16-Bit. Ergebnis: Fine-Tuning eines 70B-Modells auf einer einzigen A100-GPU.

Beliebte Open-Source-Modelle für Fine-Tuning

ModellParameterStärken
Llama 3.18B / 70B / 405BAllrounder, Meta-Lizenz
Mistral Large123BStark für EU-Sprachen
Qwen 2.57B / 72BCode + Multilingual
Gemma 29B / 27BKompakt, Google-optimiert

Tool-Stack

Unsloth / Hugging Face TRL → Training
Weights & Biases / MLflow → Experiment-Tracking
vLLM / TGI → Inference-Server

Entscheidungshilfe

KriteriumManaged (OpenAI)Open Source (LoRA)
Setup5 Minuten2–4 Stunden
Kosten pro Training$10–100$5–50 (Cloud GPU)
KontrolleNiedrigVoll
DatenschutzDaten bei OpenAIDaten bei Ihnen
Modell-EigentumNeinJa

Praxis-Tipp: Starten Sie mit Managed Fine-Tuning (OpenAI/Anthropic) für den Proof of Concept. Wenn es funktioniert und Datenschutz oder Kosten ein Thema werden, migrieren Sie auf Open Source mit QLoRA.