Enterprise Security Architecture
Einzelne Schutzmaßnahmen reichen nicht — Enterprise AI Security erfordert eine durchgängige Architektur, die vom API Gateway bis zum Incident Response jeden Aspekt abdeckt.
API Gateway Security
Der AI API Gateway als Sicherheits-Layer
Jede LLM-Anfrage durchläuft den API Gateway — der ideale Punkt für zentrale Sicherheitskontrollen:
- Authentication: API-Keys, OAuth 2.0, JWT-Tokens — jede Anfrage identifiziert
- Authorization: Rollenbasierter Zugriff auf Modelle und Features (Admin, Developer, User)
- Request Validation: Schema-Validierung, Input-Sanitization, Größenbegrenzung
- Traffic Management: Load Balancing, Circuit Breaking, Retry-Logik
Gateway-Architektur
Client → API Gateway → Auth Service
→ Rate Limiter
→ Input Validator
→ Prompt Injection Detector
→ LLM Router → Model A / Model B
→ Output Validator
→ PII Filter → Client
Rate Limiting & Abuse Prevention
Multi-Level Rate Limiting
| Level | Limit | Zweck |
|---|
| Per API Key | 100 Requests/Min | Schutz vor einzelnem kompromittierten Key |
| Per User | 50 Requests/Min | Fair Usage pro Nutzer |
| Per IP | 200 Requests/Min | DDoS-Schutz |
| Per Model | 1.000 Requests/Min | Modell-Kapazität schützen |
| Token Budget | 100K Tokens/Stunde | Kostenkontrolle |
Anomalie-Erkennung
- Burst Detection: Plötzlicher Anstieg von Anfragen eines Nutzers
- Pattern Detection: Repetitive Anfragen (Model Extraction Attempt)
- Cost Anomalies: Ungewöhnlich hoher Token-Verbrauch
- Geographic Anomalies: Login aus Deutschland, API-Calls aus Nigeria
DLP-Integration
Data Loss Prevention für AI
Klassische DLP-Systeme (Symantec, Microsoft Purview, Zscaler) müssen um AI-spezifische Regeln erweitert werden:
- Prompt-Monitoring: DLP scannt Prompts auf sensible Daten, bevor sie das Modell erreichen
- Response-Monitoring: DLP scannt Antworten auf Datenleaks
- RAG-Monitoring: DLP überwacht, welche Dokumente in den Kontext geladen werden
- Shadow AI Detection: Erkennung nicht-autorisierter AI-Tool-Nutzung (ChatGPT über persönliche Accounts)
SIEM-Integration
Security Information and Event Management
AI-Events in Ihr bestehendes SIEM integrieren (Splunk, Sentinel, Elastic):
Zu loggende Events:
- Prompt-Injection-Versuche (blockiert und durchgelassen)
- PII-Detektionen in Input und Output
- Rate-Limit-Überschreitungen
- Authentifizierungs-Fehler
- Ungewöhnliche Modell-Responses (Toxizität, Jailbreak-Indikatoren)
- Token-Verbrauch pro Nutzer, Team und Abteilung
Correlation Rules:
- 5+ Prompt-Injection-Versuche von einem Nutzer → Alert + Account-Lock
- PII in Output + ungewöhnliche Download-Aktivität → Data Breach Alert
- Rate Limit + Geographic Anomaly → Compromised Account Alert
Incident Response für AI
AI-spezifischer Incident-Response-Plan
Severity 1 — Data Breach:
- Modell sofort offline nehmen
- Betroffene Sessions identifizieren
- Ausmaß der Datenexposition bewerten
- DSGVO-Meldepflicht prüfen (72-Stunden-Frist)
- Forensische Analyse der Prompt-Logs
Severity 2 — Jailbreak/Prompt Injection:
- Angriffsmuster dokumentieren
- Input-Filter aktualisieren
- System Prompt härten
- Betroffene Nutzer informieren (falls Daten exponiert)
- Post-Mortem und Lessons Learned
Severity 3 — Hallucination mit Business-Impact:
- Falsche Information identifizieren und korrigieren
- Betroffene Nutzer/Kunden informieren
- Guardrails für betroffenen Bereich verschärfen
- RAG-Wissensbasis aktualisieren
Enterprise-Realität: AI Security ist kein Projekt, sondern ein kontinuierlicher Prozess. Bauen Sie ein dediziertes AI Security Team auf — oder erweitern Sie Ihr bestehendes Security-Team um AI-Expertise.