EU AI Act: Praktische Auswirkungen für Unternehmen
Der EU AI Act ist das weltweit erste umfassende KI-Gesetz. Nach seinem Inkrafttreten im August 2024 beginnen nun die Übergangsfristen zu laufen. Für Unternehmen in Deutschland bedeutet das: Die Zeit zum Handeln ist jetzt. Wer wartet, riskiert nicht nur Bußgelder von bis zu 35 Millionen Euro oder 7% des weltweiten Jahresumsatzes, sondern auch einen strategischen Nachteil gegenüber Wettbewerbern, die Compliance als Qualitätsmerkmal nutzen.
In diesem Beitrag ordne ich die Risikoklassen mit konkreten Beispielen aus deutschen Branchen ein, gebe eine umsetzbare Compliance-Checkliste und zeige, was wir aus der DSGVO-Einführung für den AI Act lernen können.
Das risikobasierte System
Der AI Act kategorisiert KI-Systeme in vier Risikoklassen. Die Einstufung bestimmt, welche Pflichten gelten – und entscheidet damit über den Compliance-Aufwand.
Unannehmbares Risiko (Verboten)
Diese Anwendungen sind grundsätzlich untersagt:
- Social Scoring durch Behörden: Bewertungssysteme, die Bürger auf Basis ihres Sozialverhaltens klassifizieren
- Echtzeit-Gesichtserkennung im öffentlichen Raum: Mit eng definierten Ausnahmen für Strafverfolgung bei schweren Straftaten
- Emotionserkennung am Arbeitsplatz oder in Bildungseinrichtungen: Systeme, die Gefühlszustände von Mitarbeitern oder Schülern analysieren
- Manipulation vulnerabler Gruppen: KI, die gezielt kognitive Schwächen ausnutzt, z. B. bei Kindern oder Menschen mit Behinderungen
Beispiele aus deutschen Unternehmen: Ein Personaldienstleister, der Gesichtserkennung im Bewerbungsgespräch einsetzt, um emotionale Stabilität zu messen, fällt klar in diese Kategorie. Ebenso ein Einzelhändler, der KI nutzt, um das Kaufverhalten älterer Kunden gezielt durch manipulative Preisgestaltung auszunutzen.
Für Unternehmen: Prüfen Sie systematisch, ob Ihre Systeme in diese Kategorie fallen könnten – auch unbeabsichtigt. Ein Sentiment-Analyse-Tool, das Mitarbeiter-E-Mails auswertet, kann schnell in den verbotenen Bereich rutschen, wenn es zur Leistungsbewertung eingesetzt wird.
Hohes Risiko
Strenge Anforderungen gelten für KI-Systeme in folgenden Bereichen:
- Biometrische Identifikation: Gesichts-, Stimm- oder Fingerabdruckerkennung für Zugangskontrolle
- Kritische Infrastruktur: Steuerung von Energienetzen, Wasserversorgung, Verkehr
- Bildung und Berufsausbildung: KI-basierte Prüfungsbewertung, Studienplatzvergabe
- Beschäftigung und Personalmanagement: Automatisierte Lebenslauf-Screening, KI-gestützte Beförderungsentscheidungen
- Zugang zu wesentlichen Dienstleistungen: Kreditscoring, Versicherungsrisikobewertung
- Strafverfolgung und Migration: Risikobewertung, Lügendetektoren
- Rechtspflege und demokratische Prozesse: Rückfallprognosen, Juristische Analysesysteme
Konkrete Beispiele aus deutschen Branchen:
- Automobilindustrie: Ein KI-System, das in einem BMW-Werk die Qualitätskontrolle sicherheitsrelevanter Bauteile übernimmt (Bremsscheiben, Airbag-Komponenten), gilt als Hochrisiko-System, weil es kritische Infrastruktur-Entscheidungen trifft.
- Finanzdienstleistungen: Eine Sparkasse, die ein ML-Modell für die automatisierte Kreditvergabe an Privatkunden einsetzt, muss die vollen Hochrisiko-Anforderungen erfüllen – inklusive Erklärbarkeit der Entscheidungen.
- Gesundheitswesen: Ein KI-basiertes Triagesystem in einer Hamburger Notaufnahme, das die Dringlichkeit von Patienten einschätzt, fällt unter die höchste Risikokategorie.
- Personalwesen: Ein DAX-Konzern, der ein KI-Tool zum Screening von Bewerbungen nutzt, muss dokumentieren, wie Bias im Modell vermieden wird.
Pflichten bei Hochrisiko-Systemen:
- Risikomanagement-System mit kontinuierlicher Aktualisierung
- Daten-Governance und Qualitätsmanagement für Trainings-, Validierungs- und Testdaten
- Technische Dokumentation, die den gesamten Lebenszyklus abdeckt
- Automatische Protokollierung (Logging) aller Systemereignisse
- Transparenz gegenüber Nutzern: Klare Information, dass KI eingesetzt wird
- Menschliche Aufsicht: Qualifiziertes Personal muss eingreifen können
- Robustheit, Genauigkeit und Cybersicherheit – nachgewiesen durch Tests
Unternehmen, die LLMs für Hochrisiko-Anwendungen einsetzen, sollten sich auch mit der Sicherheit von LLM-Systemen im Detail befassen, da Cybersicherheit eine explizite Anforderung ist.
Begrenztes Risiko
Transparenzpflichten gelten für:
- Chatbots: Müssen als KI erkennbar sein – ein einfacher Hinweis wie “Sie sprechen mit einem KI-Assistenten” reicht
- Deepfakes: KI-generierte Bilder, Audio und Videos müssen als solche gekennzeichnet werden
- Emotionserkennungssysteme: Betroffene müssen informiert werden, dass eine Emotionsanalyse stattfindet
- KI-generierte Texte: Wenn Inhalte zu Themen von öffentlichem Interesse publiziert werden, muss die KI-Generierung offengelegt werden
Beispiel: Ein deutscher Online-Händler, der einen Chatbot für den Kundenservice einsetzt, muss sicherstellen, dass Kunden wissen, dass sie mit einer KI interagieren. Das gilt auch, wenn der Bot nur einfache FAQ beantwortet.
Minimales Risiko
Die meisten KI-Anwendungen fallen hierunter und unterliegen keinen spezifischen Pflichten. Beispiele: Spam-Filter, KI in Videospielen, Produktempfehlungen, automatische Übersetzungen, Suchoptimierung.
Wichtig: Auch bei minimalem Risiko gelten weiterhin die DSGVO und allgemeine Verbraucherschutzvorschriften. “Minimales Risiko” im Sinne des AI Acts bedeutet nicht “keine Regulierung”.
Zeitplan und Fristen
- Februar 2025: Verbote für unannehmbares Risiko treten in Kraft – das ist bereits geltendes Recht
- August 2025: Regeln für General Purpose AI (GPAI) wie GPT-4, Claude und Llama treten in Kraft. Anbieter müssen technische Dokumentation und Transparenzberichte vorlegen
- August 2026: Vollständige Anwendung für Hochrisiko-Systeme. Ab diesem Zeitpunkt müssen alle Hochrisiko-Systeme die vollen Anforderungen erfüllen
- August 2027: Erweiterte Pflichten für bestimmte Hochrisiko-Kategorien in der Produktsicherheit
Kosten der Nicht-Compliance
Der AI Act sieht gestaffelte Bußgelder vor, die deutlich über die DSGVO-Sanktionen hinausgehen:
| Verstoß | Maximales Bußgeld | Für KMU |
|---|---|---|
| Verbotene Anwendungen nutzen | 35 Mio. € oder 7% des Jahresumsatzes | 7 Mio. € oder 1% |
| Pflichten bei Hochrisiko-Systemen | 15 Mio. € oder 3% des Jahresumsatzes | 7,5 Mio. € oder 1,5% |
| Falsche Angaben gegenüber Behörden | 7,5 Mio. € oder 1,5% des Jahresumsatzes | 3,75 Mio. € oder 0,75% |
Zum Vergleich: Die höchste DSGVO-Strafe in Deutschland betrug 35,4 Mio. € (H&M, 2020, für Mitarbeiterüberwachung). Die AI-Act-Bußgelder können deutlich darüber liegen.
Lehren aus der DSGVO-Einführung
Die DSGVO trat 2018 in Kraft – und die Erfahrungen liefern wertvolle Lehren für den AI Act:
Was gut lief
- Unternehmen, die früh investiert haben, hatten einen Wettbewerbsvorteil bei datenschutzsensiblen Kunden
- Die Einführung strukturierter Prozesse verbesserte insgesamt die Daten-Governance
- Zertifizierungen und Compliance-Nachweise wurden zu Verkaufsargumenten
Was schlecht lief
- Viele Unternehmen haben bis zum letzten Moment gewartet und dann hektisch umgesetzt
- Cookie-Banner und Einwilligungsformulare wurden oft zum Ärgernis statt zur Lösung
- Die Regulierung wurde als rein juristische Aufgabe behandelt – ohne technische und organisatorische Integration
- KMU waren überfordert und haben die Anforderungen teilweise ignoriert
Was wir daraus für den AI Act lernen können
- Früh starten: Wer jetzt mit der Inventarisierung beginnt, hat 12+ Monate Vorlauf für Hochrisiko-Systeme
- Technisch denken: Compliance ist keine juristische Übung. Sie braucht technische Infrastruktur – Logging, Monitoring, Dokumentationssysteme
- Pragmatisch umsetzen: Nicht jede KI-Anwendung ist Hochrisiko. Fokussieren Sie Ihre Ressourcen auf die Systeme mit dem höchsten Risiko
- Organisatorisch verankern: Eine KI-Strategie muss Compliance von Anfang an mitdenken
Praktische Compliance-Checkliste: 7 Schritte
Schritt 1: KI-Inventarisierung
Erstellen Sie eine vollständige Liste aller KI-Systeme in Ihrem Unternehmen. Vergessen Sie nicht:
- Eingekaufte SaaS-Lösungen mit eingebetteter KI (CRM, ERP, HR-Tools)
- API-Anbindungen an externe KI-Dienste (OpenAI, Google Cloud AI)
- Open-Source-Modelle, die intern genutzt werden
- Automatisierungslösungen, die ML-Komponenten enthalten
- KI-Features in Standard-Software, die Mitarbeiter eigenständig nutzen
Ein AI Readiness Assessment kann als strukturierte Grundlage für diese Inventarisierung dienen.
Schritt 2: Risikoklassifizierung
Bewerten Sie jedes System nach den Kriterien des AI Acts. Erstellen Sie eine Matrix mit:
- Name und Beschreibung des Systems
- Einsatzbereich und betroffene Personen
- Risikoklasse (mit Begründung)
- Verantwortlicher (Product Owner oder Fachbereichsleiter)
- Bestehende Maßnahmen und identifizierte Lücken
Im Zweifel konservativ einschätzen – eine spätere Herabstufung ist einfacher als eine nachträgliche Hochstufung.
Schritt 3: Gap-Analyse für Hochrisiko-Systeme
Für jedes Hochrisiko-System: Welche der 7 Anforderungen erfüllen Sie bereits? Prüfen Sie jeden Punkt:
- Existiert ein Risikomanagement-System? Wird es regelmäßig aktualisiert?
- Ist die Datenqualität der Trainings- und Validierungsdaten dokumentiert?
- Liegt eine technische Dokumentation vor, die den gesamten Lebenszyklus abdeckt?
- Werden alle relevanten Systemereignisse automatisch protokolliert?
- Wissen betroffene Personen, dass KI an der Entscheidung beteiligt ist?
- Kann qualifiziertes Personal jederzeit eingreifen und die KI übersteuern?
- Wurden Robustheit und Genauigkeit nachgewiesen?
Schritt 4: AI Governance aufbauen
Etablieren Sie eine Governance-Struktur mit klaren Rollen:
- AI Officer: Gesamtverantwortung für AI-Act-Compliance (muss nicht Vollzeit sein, kann beim CTO, CDO oder Chief Compliance Officer angesiedelt werden)
- AI Risk Committee: Quartalsweise Bewertung aller Hochrisiko-Systeme
- Fachbereichs-Verantwortliche: Jedes Team, das KI einsetzt, hat einen benannten Ansprechpartner
- Eskalationsprozesse: Klare Regeln, wann ein System neu bewertet werden muss (z. B. bei Änderung des Einsatzzwecks)
Schritt 5: Technische Infrastruktur für Compliance
Compliance braucht technische Unterstützung:
- Logging-Infrastruktur: Alle KI-Entscheidungen müssen nachvollziehbar protokolliert werden. Nutzen Sie bestehende SIEM-Systeme oder erweitern Sie Ihre Observability-Plattform.
- Dokumentationssystem: Versionierte technische Dokumentation für jedes System. Confluence, GitBook oder ein dediziertes Compliance-Tool.
- Monitoring: Kontinuierliche Überwachung von Modellgenauigkeit, Bias und Drift. Tools wie Evidently, Fiddler oder WhyLabs.
- Audit Trail: Lückenlose Nachverfolgung von Änderungen an Modellen, Trainingsdaten und Konfigurationen.
Schritt 6: Lieferanten einbinden
Fordern Sie von Anbietern von KI-Systemen:
- Technische Dokumentation gemäß AI-Act-Anforderungen
- Konformitätserklärungen und geplante CE-Kennzeichnung
- Transparenz über verwendete Trainingsdaten und Modellarchitektur
- Vertragliche Zusicherungen zu Updates bei regulatorischen Änderungen
- Informationen zur Risikoklassifizierung des Systems
Tipp: Nehmen Sie AI-Act-Klauseln in Ihre Standardverträge für Software-Beschaffung auf. Lieferanten, die keine Auskunft geben können, sind ein Risiko.
Schritt 7: Schulung und Awareness
- Schulen Sie alle Mitarbeiter, die KI-Systeme nutzen oder entwickeln
- Erstellen Sie einfache Richtlinien: “Darf ich ChatGPT für X verwenden?”
- Führen Sie regelmäßige Updates durch, wenn sich die Regulierung weiterentwickelt
- Dokumentieren Sie alle Schulungen (wird bei Audits nachgefragt)
AI Governance Framework: Vorlage
Ein pragmatisches Governance Framework für mittelständische Unternehmen umfasst vier Säulen:
1. Richtlinien und Standards
- Acceptable Use Policy für KI-Systeme
- Klassifizierungsrichtlinie für Risikoklassen
- Datenhandling-Standards für KI-Trainingsdaten
- Richtlinie für den Einkauf von KI-Systemen
2. Prozesse
- Risikobewertung vor dem Einsatz neuer KI-Systeme (AI Impact Assessment)
- Regelmäßige Überprüfung bestehender Systeme (mindestens jährlich)
- Incident-Response-Prozess für KI-bezogene Vorfälle
- Change-Management bei Modellupdates oder Einsatzänderungen
3. Organisation
- Klare Verantwortlichkeiten (AI Officer, Fachbereich, IT, Compliance)
- Berichtswege und Eskalationspfade
- Budget für Compliance-Maßnahmen (rechnen Sie mit 50.000–150.000 € pro Jahr für ein mittelständisches Unternehmen)
4. Technologie
- Inventarisierungstool für KI-Systeme
- Monitoring- und Logging-Infrastruktur
- Dokumentations- und Versionierungssystem
- Bias-Testing- und Audit-Tools
Häufige Missverständnisse
“Wir nutzen nur ChatGPT, das betrifft uns nicht.” Falsch. Wenn Sie GPT in kundenseitige Anwendungen integrieren, gelten Transparenzpflichten. Kunden müssen wissen, dass sie mit einer KI interagieren. Und je nach Einsatzgebiet – etwa wenn der Chatbot Kreditberatung macht oder Bewerbungen bewertet – können sogar Hochrisiko-Anforderungen relevant werden. Außerdem sind Sie als “Deployer” (Betreiber) nach dem AI Act mitverantwortlich.
“Als KMU sind wir ausgenommen.” Teilweise richtig. Es gibt Erleichterungen: reduzierte Bußgelder, vereinfachte Dokumentation, Zugang zu Regulatory Sandboxes. Aber keine vollständige Ausnahme. Hochrisiko-Pflichten gelten unabhängig von der Unternehmensgröße. Ein 50-Personen-Startup, das ein KI-basiertes Recruiting-Tool entwickelt, muss die gleichen Anforderungen erfüllen wie ein DAX-Konzern.
“Das betrifft nur KI-Entwickler.” Falsch. Der AI Act unterscheidet klar zwischen Anbietern (Providers) und Betreibern (Deployers). Auch als reiner Nutzer von KI-Systemen haben Sie Pflichten: Transparenz, menschliche Aufsicht, ordnungsgemäßer Einsatz gemäß Anweisungen des Anbieters, und Aufbewahrung automatisch generierter Logs.
“Unsere KI ist regelbasiert, kein Machine Learning – also nicht betroffen.” Nicht unbedingt richtig. Der AI Act definiert KI-Systeme breit. Auch regelbasierte Systeme können unter die Definition fallen, wenn sie mit einem gewissen Grad an Autonomie Entscheidungen treffen oder Empfehlungen generieren.
Chancen der Regulierung
Der AI Act ist nicht nur Bürokratie. Er bietet konkrete Chancen:
- Wettbewerbsvorteil: Frühzeitige Compliance schafft Vertrauen bei Kunden, besonders im B2B-Bereich. “AI-Act-konform” wird zum Verkaufsargument.
- Qualitätsverbesserung: Die geforderten Prozesse – Risikomanagement, Dokumentation, Monitoring – erhöhen messbar die Systemqualität. Unternehmen, die die DSGVO ernst genommen haben, berichten von besserer Datenqualität als positiven Nebeneffekt.
- Internationaler Standard: Die EU setzt den globalen Maßstab. Wer heute EU-konform ist, hat einen Vorsprung bei der Expansion in andere regulierte Märkte.
- Innovationsschutz: Klare Regeln schaffen Planungssicherheit und schützen vor einem “Race to the Bottom” bei Sicherheit und Ethik.
- Interne Professionalisierung: Die Einführung von Governance-Strukturen professionalisiert den Umgang mit KI im Unternehmen insgesamt.
Fazit
Der EU AI Act erfordert Vorbereitung, aber keine Panik. Die wichtigste Erkenntnis aus der DSGVO-Einführung: Wer früh und strukturiert beginnt, hat weniger Stress und niedrigere Kosten als Unternehmen, die bis zur letzten Frist warten. Beginnen Sie jetzt mit der Inventarisierung und Klassifizierung Ihrer KI-Systeme. Die Übergangsfristen geben Ihnen Zeit für eine strukturierte Umsetzung – aber die verbotenen Anwendungen sind bereits seit Februar 2025 nicht mehr zulässig.
Mein Rat: Investieren Sie 80% Ihres Compliance-Budgets in die Hochrisiko-Systeme und 20% in die Grundlagen (Inventarisierung, Schulung, Governance-Struktur). Alles, was unter minimales oder begrenztes Risiko fällt, erfordert überschaubaren Aufwand.
Benötigen Sie Unterstützung bei der AI-Act-Compliance? Kontaktieren Sie uns für eine individuelle Beratung – von der Inventarisierung bis zum fertigen Governance Framework.