EU AI Act: Praktische Auswirkungen für Unternehmen

Veröffentlicht am 1. Juni 2025 von Christopher Wittlinger

Der EU AI Act ist das weltweit erste umfassende KI-Gesetz. Nach seinem Inkrafttreten im August 2024 beginnen nun die Übergangsfristen zu laufen. Für Unternehmen in Deutschland bedeutet das: Die Zeit zum Handeln ist jetzt. Wer wartet, riskiert nicht nur Bußgelder von bis zu 35 Millionen Euro oder 7% des weltweiten Jahresumsatzes, sondern auch einen strategischen Nachteil gegenüber Wettbewerbern, die Compliance als Qualitätsmerkmal nutzen.

In diesem Beitrag ordne ich die Risikoklassen mit konkreten Beispielen aus deutschen Branchen ein, gebe eine umsetzbare Compliance-Checkliste und zeige, was wir aus der DSGVO-Einführung für den AI Act lernen können.

Das risikobasierte System

Der AI Act kategorisiert KI-Systeme in vier Risikoklassen. Die Einstufung bestimmt, welche Pflichten gelten – und entscheidet damit über den Compliance-Aufwand.

Unannehmbares Risiko (Verboten)

Diese Anwendungen sind grundsätzlich untersagt:

Beispiele aus deutschen Unternehmen: Ein Personaldienstleister, der Gesichtserkennung im Bewerbungsgespräch einsetzt, um emotionale Stabilität zu messen, fällt klar in diese Kategorie. Ebenso ein Einzelhändler, der KI nutzt, um das Kaufverhalten älterer Kunden gezielt durch manipulative Preisgestaltung auszunutzen.

Für Unternehmen: Prüfen Sie systematisch, ob Ihre Systeme in diese Kategorie fallen könnten – auch unbeabsichtigt. Ein Sentiment-Analyse-Tool, das Mitarbeiter-E-Mails auswertet, kann schnell in den verbotenen Bereich rutschen, wenn es zur Leistungsbewertung eingesetzt wird.

Hohes Risiko

Strenge Anforderungen gelten für KI-Systeme in folgenden Bereichen:

Konkrete Beispiele aus deutschen Branchen:

Pflichten bei Hochrisiko-Systemen:

Unternehmen, die LLMs für Hochrisiko-Anwendungen einsetzen, sollten sich auch mit der Sicherheit von LLM-Systemen im Detail befassen, da Cybersicherheit eine explizite Anforderung ist.

Begrenztes Risiko

Transparenzpflichten gelten für:

Beispiel: Ein deutscher Online-Händler, der einen Chatbot für den Kundenservice einsetzt, muss sicherstellen, dass Kunden wissen, dass sie mit einer KI interagieren. Das gilt auch, wenn der Bot nur einfache FAQ beantwortet.

Minimales Risiko

Die meisten KI-Anwendungen fallen hierunter und unterliegen keinen spezifischen Pflichten. Beispiele: Spam-Filter, KI in Videospielen, Produktempfehlungen, automatische Übersetzungen, Suchoptimierung.

Wichtig: Auch bei minimalem Risiko gelten weiterhin die DSGVO und allgemeine Verbraucherschutzvorschriften. “Minimales Risiko” im Sinne des AI Acts bedeutet nicht “keine Regulierung”.

Zeitplan und Fristen

Kosten der Nicht-Compliance

Der AI Act sieht gestaffelte Bußgelder vor, die deutlich über die DSGVO-Sanktionen hinausgehen:

VerstoßMaximales BußgeldFür KMU
Verbotene Anwendungen nutzen35 Mio. € oder 7% des Jahresumsatzes7 Mio. € oder 1%
Pflichten bei Hochrisiko-Systemen15 Mio. € oder 3% des Jahresumsatzes7,5 Mio. € oder 1,5%
Falsche Angaben gegenüber Behörden7,5 Mio. € oder 1,5% des Jahresumsatzes3,75 Mio. € oder 0,75%

Zum Vergleich: Die höchste DSGVO-Strafe in Deutschland betrug 35,4 Mio. € (H&M, 2020, für Mitarbeiterüberwachung). Die AI-Act-Bußgelder können deutlich darüber liegen.

Lehren aus der DSGVO-Einführung

Die DSGVO trat 2018 in Kraft – und die Erfahrungen liefern wertvolle Lehren für den AI Act:

Was gut lief

Was schlecht lief

Was wir daraus für den AI Act lernen können

  1. Früh starten: Wer jetzt mit der Inventarisierung beginnt, hat 12+ Monate Vorlauf für Hochrisiko-Systeme
  2. Technisch denken: Compliance ist keine juristische Übung. Sie braucht technische Infrastruktur – Logging, Monitoring, Dokumentationssysteme
  3. Pragmatisch umsetzen: Nicht jede KI-Anwendung ist Hochrisiko. Fokussieren Sie Ihre Ressourcen auf die Systeme mit dem höchsten Risiko
  4. Organisatorisch verankern: Eine KI-Strategie muss Compliance von Anfang an mitdenken

Praktische Compliance-Checkliste: 7 Schritte

Schritt 1: KI-Inventarisierung

Erstellen Sie eine vollständige Liste aller KI-Systeme in Ihrem Unternehmen. Vergessen Sie nicht:

Ein AI Readiness Assessment kann als strukturierte Grundlage für diese Inventarisierung dienen.

Schritt 2: Risikoklassifizierung

Bewerten Sie jedes System nach den Kriterien des AI Acts. Erstellen Sie eine Matrix mit:

Im Zweifel konservativ einschätzen – eine spätere Herabstufung ist einfacher als eine nachträgliche Hochstufung.

Schritt 3: Gap-Analyse für Hochrisiko-Systeme

Für jedes Hochrisiko-System: Welche der 7 Anforderungen erfüllen Sie bereits? Prüfen Sie jeden Punkt:

Schritt 4: AI Governance aufbauen

Etablieren Sie eine Governance-Struktur mit klaren Rollen:

Schritt 5: Technische Infrastruktur für Compliance

Compliance braucht technische Unterstützung:

Schritt 6: Lieferanten einbinden

Fordern Sie von Anbietern von KI-Systemen:

Tipp: Nehmen Sie AI-Act-Klauseln in Ihre Standardverträge für Software-Beschaffung auf. Lieferanten, die keine Auskunft geben können, sind ein Risiko.

Schritt 7: Schulung und Awareness

AI Governance Framework: Vorlage

Ein pragmatisches Governance Framework für mittelständische Unternehmen umfasst vier Säulen:

1. Richtlinien und Standards

2. Prozesse

3. Organisation

4. Technologie

Häufige Missverständnisse

“Wir nutzen nur ChatGPT, das betrifft uns nicht.” Falsch. Wenn Sie GPT in kundenseitige Anwendungen integrieren, gelten Transparenzpflichten. Kunden müssen wissen, dass sie mit einer KI interagieren. Und je nach Einsatzgebiet – etwa wenn der Chatbot Kreditberatung macht oder Bewerbungen bewertet – können sogar Hochrisiko-Anforderungen relevant werden. Außerdem sind Sie als “Deployer” (Betreiber) nach dem AI Act mitverantwortlich.

“Als KMU sind wir ausgenommen.” Teilweise richtig. Es gibt Erleichterungen: reduzierte Bußgelder, vereinfachte Dokumentation, Zugang zu Regulatory Sandboxes. Aber keine vollständige Ausnahme. Hochrisiko-Pflichten gelten unabhängig von der Unternehmensgröße. Ein 50-Personen-Startup, das ein KI-basiertes Recruiting-Tool entwickelt, muss die gleichen Anforderungen erfüllen wie ein DAX-Konzern.

“Das betrifft nur KI-Entwickler.” Falsch. Der AI Act unterscheidet klar zwischen Anbietern (Providers) und Betreibern (Deployers). Auch als reiner Nutzer von KI-Systemen haben Sie Pflichten: Transparenz, menschliche Aufsicht, ordnungsgemäßer Einsatz gemäß Anweisungen des Anbieters, und Aufbewahrung automatisch generierter Logs.

“Unsere KI ist regelbasiert, kein Machine Learning – also nicht betroffen.” Nicht unbedingt richtig. Der AI Act definiert KI-Systeme breit. Auch regelbasierte Systeme können unter die Definition fallen, wenn sie mit einem gewissen Grad an Autonomie Entscheidungen treffen oder Empfehlungen generieren.

Chancen der Regulierung

Der AI Act ist nicht nur Bürokratie. Er bietet konkrete Chancen:

Fazit

Der EU AI Act erfordert Vorbereitung, aber keine Panik. Die wichtigste Erkenntnis aus der DSGVO-Einführung: Wer früh und strukturiert beginnt, hat weniger Stress und niedrigere Kosten als Unternehmen, die bis zur letzten Frist warten. Beginnen Sie jetzt mit der Inventarisierung und Klassifizierung Ihrer KI-Systeme. Die Übergangsfristen geben Ihnen Zeit für eine strukturierte Umsetzung – aber die verbotenen Anwendungen sind bereits seit Februar 2025 nicht mehr zulässig.

Mein Rat: Investieren Sie 80% Ihres Compliance-Budgets in die Hochrisiko-Systeme und 20% in die Grundlagen (Inventarisierung, Schulung, Governance-Struktur). Alles, was unter minimales oder begrenztes Risiko fällt, erfordert überschaubaren Aufwand.

Benötigen Sie Unterstützung bei der AI-Act-Compliance? Kontaktieren Sie uns für eine individuelle Beratung – von der Inventarisierung bis zum fertigen Governance Framework.