Risikoklassifizierung verstehen
Das Herzstück des EU AI Acts ist die risikobasierte Klassifizierung. Je höher das Risiko eines AI-Systems, desto strenger die Anforderungen. In dieser Lektion lernen Sie, wie Sie Ihre AI-Systeme richtig einordnen.
Stufe 1: Unacceptable Risk — Verboten 🚫
Diese AI-Anwendungen sind in der EU verboten (seit 02.02.2025):
- Social Scoring: Bewertung von Personen basierend auf Sozialverhalten (wie in China)
- Manipulative AI: Systeme, die unterschwellige Techniken nutzen, um Verhalten zu manipulieren
- Biometrische Echtzeit-Überwachung: Im öffentlichen Raum durch Strafverfolgungsbehörden (mit engen Ausnahmen)
- Emotionserkennung: Am Arbeitsplatz und in Bildungseinrichtungen
- Predictive Policing: AI-basierte Vorhersage von Straftaten einzelner Personen
Stufe 2: High Risk — Strenge Auflagen ⚠️
AI-Systeme, die grundlegende Rechte betreffen, gelten als High Risk:
| Bereich | Beispiele |
|---|
| Biometrie | Gesichtserkennung, Stimmerkennung |
| Kritische Infrastruktur | AI in Energienetzen, Wasserversorgung |
| Bildung | Automatisierte Prüfungsbewertung, Zugangs-Scoring |
| Beschäftigung | AI im Recruiting, Leistungsbewertung, Kündigungsentscheidungen |
| Finanzdienstleistungen | Kreditwürdigkeitsprüfung, Versicherungs-Scoring |
| Strafverfolgung | Beweisbewertung, Rückfallprognose |
| Migration | Visum-Bewertung, Grenzüberwachung |
Pflichten für High-Risk-Systeme:
- Risikomanagementsystem
- Daten-Governance und Qualitätsstandards
- Technische Dokumentation
- Logging und Nachvollziehbarkeit
- Menschliche Aufsicht
- Genauigkeit, Robustheit, Cybersicherheit
Stufe 3: Limited Risk — Transparenzpflichten ⚡
Systeme mit Limited Risk müssen transparent sein:
- Chatbots: Nutzer müssen wissen, dass sie mit einer AI interagieren
- Deepfakes: Müssen als AI-generiert gekennzeichnet werden
- AI-generierte Inhalte: Texte, Bilder, Audio müssen als AI-generiert markiert werden
- Emotionserkennungssysteme: Nutzer müssen informiert werden (wo erlaubt)
Stufe 4: Minimal Risk — Keine speziellen Pflichten ✅
Die Mehrheit der AI-Anwendungen fällt in diese Kategorie:
- Spam-Filter
- AI-gestützte Suchfunktionen
- Empfehlungsalgorithmen (mit Einschränkungen)
- Textkorrektur und Übersetzung
Praxis-Check: Wo stehen Ihre Systeme?
Gehen Sie Ihr AI-Inventar durch und fragen Sie für jedes System:
- Betrifft es grundlegende Rechte? → Möglicherweise High Risk
- Interagiert es direkt mit Nutzern? → Mindestens Limited Risk
- Fällt es unter einen der High-Risk-Bereiche in Annex III? → High Risk
- Nichts davon? → Wahrscheinlich Minimal Risk
Achtung: Die Klassifizierung ist nicht statisch. Ein System, das heute Minimal Risk ist, kann durch erweiterte Funktionen zu High Risk werden.