Lektion 5 von 6·10 Min Lesezeit

Enterprise Security Architecture

Einzelne Schutzmaßnahmen reichen nicht — Enterprise AI Security erfordert eine durchgängige Architektur, die vom API Gateway bis zum Incident Response jeden Aspekt abdeckt.

API Gateway Security

Der AI API Gateway als Sicherheits-Layer

Jede LLM-Anfrage durchläuft den API Gateway — der ideale Punkt für zentrale Sicherheitskontrollen:

  • Authentication: API-Keys, OAuth 2.0, JWT-Tokens — jede Anfrage identifiziert
  • Authorization: Rollenbasierter Zugriff auf Modelle und Features (Admin, Developer, User)
  • Request Validation: Schema-Validierung, Input-Sanitization, Größenbegrenzung
  • Traffic Management: Load Balancing, Circuit Breaking, Retry-Logik

Gateway-Architektur

Client → API Gateway → Auth Service
                     → Rate Limiter
                     → Input Validator
                     → Prompt Injection Detector
                     → LLM Router → Model A / Model B
                     → Output Validator
                     → PII Filter → Client

Rate Limiting & Abuse Prevention

Multi-Level Rate Limiting

LevelLimitZweck
Per API Key100 Requests/MinSchutz vor einzelnem kompromittierten Key
Per User50 Requests/MinFair Usage pro Nutzer
Per IP200 Requests/MinDDoS-Schutz
Per Model1.000 Requests/MinModell-Kapazität schützen
Token Budget100K Tokens/StundeKostenkontrolle

Anomalie-Erkennung

  • Burst Detection: Plötzlicher Anstieg von Anfragen eines Nutzers
  • Pattern Detection: Repetitive Anfragen (Model Extraction Attempt)
  • Cost Anomalies: Ungewöhnlich hoher Token-Verbrauch
  • Geographic Anomalies: Login aus Deutschland, API-Calls aus Nigeria

DLP-Integration

Data Loss Prevention für AI

Klassische DLP-Systeme (Symantec, Microsoft Purview, Zscaler) müssen um AI-spezifische Regeln erweitert werden:

  • Prompt-Monitoring: DLP scannt Prompts auf sensible Daten, bevor sie das Modell erreichen
  • Response-Monitoring: DLP scannt Antworten auf Datenleaks
  • RAG-Monitoring: DLP überwacht, welche Dokumente in den Kontext geladen werden
  • Shadow AI Detection: Erkennung nicht-autorisierter AI-Tool-Nutzung (ChatGPT über persönliche Accounts)

SIEM-Integration

Security Information and Event Management

AI-Events in Ihr bestehendes SIEM integrieren (Splunk, Sentinel, Elastic):

Zu loggende Events:

  • Prompt-Injection-Versuche (blockiert und durchgelassen)
  • PII-Detektionen in Input und Output
  • Rate-Limit-Überschreitungen
  • Authentifizierungs-Fehler
  • Ungewöhnliche Modell-Responses (Toxizität, Jailbreak-Indikatoren)
  • Token-Verbrauch pro Nutzer, Team und Abteilung

Correlation Rules:

  • 5+ Prompt-Injection-Versuche von einem Nutzer → Alert + Account-Lock
  • PII in Output + ungewöhnliche Download-Aktivität → Data Breach Alert
  • Rate Limit + Geographic Anomaly → Compromised Account Alert

Incident Response für AI

AI-spezifischer Incident-Response-Plan

Severity 1 — Data Breach:

  1. Modell sofort offline nehmen
  2. Betroffene Sessions identifizieren
  3. Ausmaß der Datenexposition bewerten
  4. DSGVO-Meldepflicht prüfen (72-Stunden-Frist)
  5. Forensische Analyse der Prompt-Logs

Severity 2 — Jailbreak/Prompt Injection:

  1. Angriffsmuster dokumentieren
  2. Input-Filter aktualisieren
  3. System Prompt härten
  4. Betroffene Nutzer informieren (falls Daten exponiert)
  5. Post-Mortem und Lessons Learned

Severity 3 — Hallucination mit Business-Impact:

  1. Falsche Information identifizieren und korrigieren
  2. Betroffene Nutzer/Kunden informieren
  3. Guardrails für betroffenen Bereich verschärfen
  4. RAG-Wissensbasis aktualisieren

Enterprise-Realität: AI Security ist kein Projekt, sondern ein kontinuierlicher Prozess. Bauen Sie ein dediziertes AI Security Team auf — oder erweitern Sie Ihr bestehendes Security-Team um AI-Expertise.