KI-Readiness: Ist Ihr Unternehmen bereit für künstliche Intelligenz?
Bevor Unternehmen in KI-Projekte investieren, sollten sie ihre Ausgangslage realistisch einschätzen. Ein strukturiertes Readiness Assessment hilft, Stärken zu identifizieren und Lücken zu schließen, bevor sie zu Projektrisiken werden. In unserer Beratungspraxis erleben wir regelmäßig, dass Unternehmen 100.000+ Euro in KI-Initiativen stecken, die an fehlenden Grundlagen scheitern — nicht an fehlender Technologie.
Dieser Leitfaden stellt unser erprobtes Bewertungsframework vor: 5 Dimensionen, jeweils 5 Kriterien, bewertet auf einer Skala von 1–5. Der Gesamtscore von 25–125 gibt Ihnen eine klare Orientierung, wo Sie stehen und welche Investitionen den größten Hebel haben.
Die fünf Dimensionen der KI-Readiness
1. Datenreife
Daten sind der Treibstoff für KI-Systeme — und die Dimension, in der die meisten Unternehmen die größten Lücken haben. In unseren Assessments erreichen 70 % der Unternehmen in dieser Dimension weniger als 3 von 5 Punkten.
Bewerten Sie folgende Kriterien:
Verfügbarkeit: Existieren die benötigten Daten überhaupt?
- Score 1: Relevante Daten werden nicht systematisch erfasst. Viele Prozesse sind papierbasiert oder in persönlichen Dateien.
- Score 2: Daten existieren in einzelnen Systemen, aber fragmentiert. Kundeninformationen in Outlook, Umsätze in Excel, Aufträge im ERP — ohne Verbindung.
- Score 3: Kernprozesse sind digitalisiert, Daten werden in strukturierten Systemen erfasst. Es gibt ein zentrales ERP und ein CRM.
- Score 4: Umfassende Datenerfassung über alle Geschäftsprozesse. Data Warehouse oder Data Lake existiert als zentrale Datenquelle.
- Score 5: Echtzeitdaten aus allen relevanten Quellen fließen automatisiert zusammen. Streaming-Pipelines, IoT-Integration, vollständige Datenhistorie verfügbar.
Qualität: Wie vollständig, aktuell und korrekt sind die Daten?
- Score 1: Keine Qualitätsstandards. Hoher Anteil fehlender Werte (>30 %), inkonsistente Formate, keine Validierung.
- Score 2: Bekannte Qualitätsprobleme, aber keine systematische Behandlung. Gelegentliche manuelle Bereinigung.
- Score 3: Grundlegende Qualitätschecks existieren. Fehlende Werte unter 15 %. Standardisierte Formate für Kernfelder.
- Score 4: Automatisierte Datenqualitätsprüfungen. Fehlende Werte unter 5 %. Anomalie-Erkennung bei Dateneingabe. Regelmäßiges Monitoring.
- Score 5: Umfassendes Data Quality Management. Automatisierte Korrektur, Deduplizierung, kontinuierliches Monitoring mit Alerting. SLAs für Datenqualität definiert.
Zugänglichkeit: Können Teams auf die Daten zugreifen?
- Score 1: Daten sind in Silos eingesperrt. Zugriff erfordert manuelle Anfragen an IT-Abteilung. Wartezeiten von Tagen bis Wochen.
- Score 2: Einige Daten über Exporte verfügbar (CSV, Excel). Kein Self-Service. Jede Analyse erfordert IT-Unterstützung.
- Score 3: BI-Tools ermöglichen grundlegenden Self-Service-Zugriff auf Standardreports. APIs für Kernsysteme existieren.
- Score 4: Datenplattform mit Self-Service-Zugriff. Fachabteilungen können eigenständig Abfragen erstellen. Rollenbasierte Zugriffskontrollen.
- Score 5: Vollständige Datenplattform mit Data Catalog, Self-Service-Analytics, API-Gateway und Echtzeit-Zugriff. Daten als Produkt behandelt.
Governance: Gibt es klare Regeln für Datennutzung und -schutz?
- Score 1: Keine definierten Regeln. Unklar, wer für welche Daten verantwortlich ist. Datenschutz wird ad hoc behandelt.
- Score 2: Grundlegende Datenschutzrichtlinie existiert (DSGVO-Basis). Keine definierten Data Owner. Keine systematische Klassifikation.
- Score 3: Data Owner für Kernsysteme benannt. Datenschutzkonzept dokumentiert. Grundlegende Zugriffskontrollen implementiert.
- Score 4: Umfassendes Data-Governance-Framework. Datenklassifikation, Retention Policies, Audit-Trails. Data Stewards in Fachabteilungen.
- Score 5: Automatisierte Governance mit Policy-as-Code. Datenherkunft (Lineage) vollständig nachvollziehbar. Regelmäßige Audits. Privacy-by-Design umgesetzt.
Integration: Können verschiedene Datenquellen kombiniert werden?
- Score 1: Jedes System ist eine Insel. Integration nur durch manuelle Exporte und Copy-Paste.
- Score 2: Einzelne Punkt-zu-Punkt-Integrationen existieren (z. B. ERP-CRM-Sync), aber fragil und manuell gewartet.
- Score 3: ETL-Pipelines für wichtige Datenflüsse. Grundlegende Master-Data-Management-Ansätze.
- Score 4: Integrationsplattform (iPaaS oder Middleware). Standardisierte APIs. Die meisten Systeme sind angebunden.
- Score 5: Event-driven Architecture. Echtzeit-Integration aller Systeme. Unified Data Model über Domänen hinweg.
Warnsignal: Wenn Daten in Silos liegen und manuelle Excel-Exporte der Standard sind, ist ein Datenprojekt vor dem KI-Projekt nötig. Wir haben hierzu einen eigenen Beitrag verfasst: Datenqualität als Erfolgsfaktor für KI.
2. Technische Infrastruktur
Die richtige Basis muss vorhanden sein, um KI-Modelle nicht nur zu entwickeln, sondern auch zuverlässig zu betreiben.
Compute-Ressourcen: Cloud-Zugang oder eigene GPU-Kapazitäten.
- Score 1: Keine Cloud-Nutzung. Alle Workloads auf lokalen Rechnern oder einem einzelnen Server.
- Score 2: Erste Cloud-Dienste im Einsatz (z. B. E-Mail, Storage), aber keine Compute-Workloads.
- Score 3: Cloud-Infrastruktur für Entwicklung verfügbar. Entwickler können VMs und Containerinstanzen nutzen. Kein GPU-Zugang.
- Score 4: Managed Cloud-Infrastruktur mit GPU-Instanzen bei Bedarf. Kubernetes oder vergleichbare Orchestrierung.
- Score 5: Skalierbare ML-Infrastruktur mit Auto-Scaling, Spot-Instance-Management, Multi-Cloud-Strategie. GPU-Cluster für Training verfügbar.
DevOps/MLOps-Reife: Versionierung, Testing, Deployment-Pipelines.
- Score 1: Kein Versionskontrollsystem. Deployment per FTP oder manuelles Kopieren.
- Score 2: Git für Code-Versionierung. Manuelle Deployments mit Checkliste. Kein automatisiertes Testing.
- Score 3: CI/CD-Pipeline für Standardanwendungen. Automatisierte Tests. Docker im Einsatz.
- Score 4: MLOps-Grundlagen: Modellversionierung, Experiment-Tracking, automatisiertes Testing für ML-Pipelines.
- Score 5: Vollständige MLOps-Plattform: automatisiertes Training, Model Registry, A/B-Testing, Monitoring, automatisches Retraining.
Integration und APIs: Schnittstellen zu bestehenden Systemen.
- Score 1: Keine APIs. Systeme kommunizieren über Dateiexporte oder gar nicht.
- Score 2: Einzelne REST-APIs vorhanden, aber nicht dokumentiert oder standardisiert.
- Score 3: API-First-Ansatz für neue Systeme. Dokumentierte APIs für Kernsysteme.
- Score 4: API-Gateway, Versionierung, Rate-Limiting. Microservice-Architektur für neue Komponenten.
- Score 5: Event-driven Architecture mit Message Broker. GraphQL oder gRPC. API-Marketplace für interne Dienste.
Sicherheit: Verschlüsselung, Zugriffskontrollen, Audit-Logs.
- Score 1: Grundlegende Netzwerksicherheit (Firewall). Keine Verschlüsselung von Daten at rest. Keine Audit-Logs.
- Score 2: HTTPS für externe Dienste. Einfache Passwort-Policies. Grundlegende Zugriffskontrolle.
- Score 3: Rollenbasierte Zugriffskontrollen. Verschlüsselung at rest und in transit. Basis-Audit-Logging.
- Score 4: Zero-Trust-Ansatz. MFA für alle Systeme. SIEM-Lösung. Regelmäßige Penetrationstests.
- Score 5: Security-as-Code. Automatisierte Vulnerability-Scans in CI/CD. SOC-2-Compliance. Incident Response Plan getestet.
Skalierbarkeit: Kann die Infrastruktur mit wachsendem Bedarf mitwachsen?
- Score 1: Feste Hardware. Kapazitätserweiterung dauert Wochen bis Monate.
- Score 2: Einzelne Cloud-Dienste skalierbar, aber Kern-Infrastruktur fest.
- Score 3: Containerisierte Anwendungen. Horizontale Skalierung für Web-Workloads möglich.
- Score 4: Auto-Scaling für die meisten Dienste. Infrastructure-as-Code. Reproduzierbare Environments.
- Score 5: Vollständig elastische Infrastruktur. Serverless für geeignete Workloads. Multi-Region. Disaster Recovery getestet.
Warnsignal: Wenn Deployment noch “per Hand auf den Server kopieren” bedeutet, fehlt die Grundlage für produktive KI-Systeme.
3. Kompetenzen und Talente
Menschen machen den Unterschied — und KI-Kompetenz bedeutet nicht nur Data Scientists einstellen.
Technisches Know-how: Data Scientists, ML Engineers im Team?
- Score 1: Keine Mitarbeiter mit ML/KI-Kenntnissen. IT-Abteilung konzentriert sich auf Betrieb.
- Score 2: Einzelne Mitarbeiter mit Grundkenntnissen (Online-Kurse, persönliches Interesse). Keine dedizierte Rolle.
- Score 3: 1–2 Data Scientists oder ML Engineers im Team. Erste Erfahrung mit Modellentwicklung.
- Score 4: Dediziertes Data-Science-Team (3–5 Personen). Erfahrung mit produktiven ML-Systemen.
- Score 5: Vollständiges ML-Team (Data Scientists, ML Engineers, Data Engineers, MLOps). Erfahrung mit verschiedenen Modelltypen und Produktionssystemen.
Domänenwissen: Verstehen die technischen Experten das Geschäft?
- Score 1: Technik und Fachbereiche arbeiten in getrennten Welten. Kein gemeinsames Verständnis.
- Score 2: Gelegentlicher Austausch. Techniker verstehen grundlegende Geschäftsprozesse.
- Score 3: Regelmäßige Abstimmung. Techniker nehmen an Fachbereichsmeetings teil. Erste Cross-funktionale Projekte.
- Score 4: Embedded-Modell: Techniker sitzen in Fachabteilungen oder arbeiten eng mit Domänenexperten. Gemeinsame KPIs.
- Score 5: Tiefe Integration. Fachexperten mit technischem Verständnis. Data Translators als Brücke. Product-Owner-Modell für KI-Produkte.
Führungskompetenz: Können Manager KI-Projekte steuern?
- Score 1: Management sieht KI als IT-Thema. Keine Beteiligung an Projektsteuerung.
- Score 2: Grundlegendes Interesse. Management lässt KI-Projekte laufen, steuert aber nicht aktiv.
- Score 3: Management kann KI-Projekte priorisieren und Ressourcen zuweisen. Grundverständnis für Potenziale und Grenzen.
- Score 4: Führungskräfte steuern KI-Projekte aktiv. Verstehen Metriken und können Trade-offs bewerten.
- Score 5: KI-Literacy auf C-Level. Strategische Integration in Geschäftsentscheidungen. Data-informed Leadership Kultur.
Weiterbildung: Gibt es Programme zum Kompetenzaufbau?
- Score 1: Keine KI-bezogenen Weiterbildungsmöglichkeiten. Mitarbeiter bilden sich auf eigene Initiative.
- Score 2: Einzelne Mitarbeiter besuchen gelegentlich externe Schulungen. Kein systematisches Programm.
- Score 3: Budget für KI-Weiterbildung definiert. Ausgewählte Mitarbeiter nehmen an strukturierten Programmen teil.
- Score 4: Systematisches Schulungsprogramm auf mehreren Ebenen (Management, Fachbereiche, Technik). Regelmäßige interne Workshops.
- Score 5: Learning Organization. Internes KI-Schulungsprogramm, Community of Practice, Hackathons, Kooperationen mit Hochschulen.
Rekrutierung: Können Sie KI-Talente gewinnen und halten?
- Score 1: Kein Fokus auf KI-Rekrutierung. Arbeitgebermarke hat keinen Tech-Bezug.
- Score 2: Erste Versuche, KI-Rollen auszuschreiben. Schwierigkeiten, Kandidaten zu finden.
- Score 3: Aktive Rekrutierung. Wettbewerbsfähige Gehälter. Erste KI-Mitarbeiter eingestellt.
- Score 4: Attraktiver Arbeitgeber für KI-Talente. Interessante Projekte, moderne Infrastruktur, Weiterbildung.
- Score 5: Employer of Choice. Starke Arbeitgebermarke im KI-Bereich. Talent-Pipeline. Kooperationen mit Universitäten und Forschungsinstituten.
Warnsignal: Wenn die gesamte “KI-Kompetenz” bei einer einzelnen Person liegt, ist das ein erhebliches Risiko. Ein Bus-Faktor von 1 bedeutet, dass ein Jobwechsel Ihr gesamtes KI-Programm gefährdet.
4. Organisationskultur
Kultur frisst Strategie zum Frühstück — und KI-Projekte sind besonders kulturempfindlich, weil sie Arbeitsabläufe, Rollen und Entscheidungsprozesse verändern. Mehr dazu in unserem Beitrag zu KI-Change-Management.
Experimentierfreude: Werden Pilotprojekte unterstützt?
- Score 1: Innovation wird als Risiko gesehen. Neue Ideen müssen durch lange Genehmigungsprozesse.
- Score 2: Vereinzelte Innovationsprojekte, die von einzelnen Champions getrieben werden.
- Score 3: Innovationsbudget existiert. Pilotprojekte sind formell möglich, benötigen aber starke Rechtfertigung.
- Score 4: Dediziertes Innovationsprogramm. Mitarbeiter können 10–20 % ihrer Zeit für Experimente nutzen.
- Score 5: Innovationskultur als Kernwert. Schnelle Prototypen werden belohnt. Fail-fast-Mentalität verankert.
Fehlertoleranz: Darf man scheitern und daraus lernen?
- Score 1: Fehler werden bestraft. Blame Culture. Mitarbeiter vermeiden Risiken.
- Score 2: Fehler werden toleriert, aber nicht analysiert. Keine systematische Lernkultur.
- Score 3: Post-Mortems bei größeren Fehlschlägen. Grundlegendes Verständnis, dass Experimente scheitern können.
- Score 4: Blameless Post-Mortems sind Standard. Gescheiterte Experimente werden als Lernchance kommuniziert.
- Score 5: Psychologische Sicherheit. Teams berichten offen über Fehlschläge. Lessons Learned werden aktiv geteilt und genutzt.
Datengetriebene Entscheidungen: Zählen Fakten oder Hierarchien?
- Score 1: Entscheidungen basieren auf Erfahrung und Hierarchie. “Das haben wir immer so gemacht.”
- Score 2: Daten werden gelegentlich zur Rechtfertigung herangezogen, aber nicht als primäre Entscheidungsgrundlage.
- Score 3: Standardreports und Dashboards werden regelmäßig genutzt. Zentrale KPIs sind definiert.
- Score 4: Datenbasierte Argumentation ist Standard. A/B-Tests für wichtige Entscheidungen. Executive Dashboards.
- Score 5: Data-First-Kultur. Jede strategische Entscheidung wird durch Daten gestützt. Predictive Analytics für Planung.
Veränderungsbereitschaft: Sind Mitarbeiter offen für neue Werkzeuge?
- Score 1: Starker Widerstand gegen Veränderung. Neue Tools werden boykottiert oder ignoriert.
- Score 2: Passive Akzeptanz. Mitarbeiter nutzen neue Werkzeuge, wenn sie müssen, aber ohne Engagement.
- Score 3: Grundlegende Offenheit. Mitarbeiter probieren neue Tools, wenn der Nutzen klar kommuniziert wird.
- Score 4: Aktive Beteiligung. Mitarbeiter machen Verbesserungsvorschläge und testen neue Werkzeuge proaktiv.
- Score 5: Change Champions in allen Abteilungen. Mitarbeiter treiben Digitalisierung selbst voran. Interne Community.
Abteilungsübergreifende Zusammenarbeit: Arbeiten Teams zusammen oder gegeneinander?
- Score 1: Starke Silos. Abteilungen teilen weder Daten noch Wissen. Konkurrenzverhältnis.
- Score 2: Zusammenarbeit nur auf Management-Ebene. Operative Teams bleiben in ihren Bereichen.
- Score 3: Projektbasierte Zusammenarbeit. Cross-funktionale Teams für spezifische Initiativen.
- Score 4: Strukturelle Zusammenarbeit. Shared Services, gemeinsame Plattformen, regelmäßige bereichsübergreifende Meetings.
- Score 5: Nahtlose Kollaboration. Matrix-Organisation mit Fokus auf Wertströme statt Abteilungsgrenzen.
Warnsignal: Wenn jede Entscheidung drei Gremien durchlaufen muss, wird agile KI-Entwicklung schwierig. KI-Projekte brauchen schnelle Iterationszyklen — Wochen, nicht Monate.
5. Strategie und Governance
Der übergeordnete Rahmen gibt Richtung und Grenzen vor. Ohne ihn werden KI-Projekte zu isolierten Experimenten, die nie skalieren.
Klare Ziele: Was soll KI konkret erreichen?
- Score 1: KI ist ein Buzzword in Präsentationen, aber keine konkreten Use Cases definiert.
- Score 2: Vage Vorstellung (“Wir wollen KI nutzen”), aber keine messbaren Ziele.
- Score 3: 2–3 konkrete Use Cases identifiziert. Grobe Erwartungen an den Nutzen formuliert.
- Score 4: Priorisierte Use-Case-Pipeline mit messbaren KPIs. Business Cases für Top-Initiativen erstellt.
- Score 5: KI-Strategie als Teil der Unternehmensstrategie. Klare Vision, priorisierte Roadmap, definierte Erfolgskriterien.
Budget: Sind Mittel für mehrjährige Initiativen eingeplant?
- Score 1: Kein dediziertes KI-Budget. Projekte müssen aus laufenden IT-Budgets finanziert werden.
- Score 2: Einmalbudget für ein Pilotprojekt genehmigt. Keine langfristige Finanzplanung.
- Score 3: Jährliches Budget für KI-Initiativen. Ausreichend für 1–2 Projekte.
- Score 4: Mehrjahresbudget mit klarer Allokation für Infrastruktur, Personal und Projekte.
- Score 5: Strategisches Investitionsbudget mit Skalierungspfad. Venture-Ansatz mit Portfolio-Management über Use Cases.
Verantwortlichkeiten: Wer treibt das Thema?
- Score 1: Niemand ist explizit für KI verantwortlich. Thema schwebt zwischen IT und Geschäftsführung.
- Score 2: Informeller KI-Champion, der das Thema neben seinen regulären Aufgaben vorantreibt.
- Score 3: Dedizierter KI-Verantwortlicher (z. B. Head of Data & AI). Klare Berichtslinie.
- Score 4: KI-Team mit klarer Organisationsstruktur. Steering Committee mit C-Level-Beteiligung.
- Score 5: Chief AI Officer oder CDO auf C-Level. AI Center of Excellence. Klare Governance über Bewertung, Freigabe und Monitoring von KI-Systemen.
Ethik und Compliance: Gibt es Leitlinien für verantwortungsvolle KI?
- Score 1: Kein Bewusstsein für KI-Ethik oder regulatorische Anforderungen.
- Score 2: Grundlegendes Bewusstsein, aber keine dokumentierten Richtlinien.
- Score 3: KI-Ethik-Richtlinie existiert. Grundlegende Maßnahmen für Bias-Vermeidung und Transparenz.
- Score 4: Umfassendes KI-Governance-Framework. Risikoklassifikation für Use Cases. Impact Assessments vor Deployment.
- Score 5: Integriertes verantwortungsvolles KI-Programm. Automatisierte Bias-Checks, Explainability-Standards, regelmäßige Audits. EU AI Act-Compliance proaktiv umgesetzt.
Stakeholder-Alignment: Ziehen alle an einem Strang?
- Score 1: KI wird nur von der IT oder einzelnen Enthusiasten getrieben. Kein Management-Buy-in.
- Score 2: CEO oder CTO findet KI interessant, aber keine aktive Unterstützung bei Hindernissen.
- Score 3: Management-Unterstützung vorhanden. Budget freigegeben. Aber Fachbereiche sind skeptisch.
- Score 4: Breite Unterstützung auf Management- und Fachbereichsebene. Gemeinsames Verständnis der Ziele.
- Score 5: KI als strategische Priorität auf allen Ebenen. CEO als aktiver Sponsor. Fachbereiche treiben Use Cases selbst.
Warnsignal: Wenn KI ein Buzzword in Präsentationen ist, aber keine konkreten Use Cases mit messbaren Zielen definiert sind, wird jedes Projekt zum politischen Spielball.
Das Readiness-Scoring: Auswertung
Bewerten Sie jede der 25 Kriterien auf der Skala von 1–5. Der Gesamtscore liegt zwischen 25 und 125 Punkten.
Interpretation des Gesamtscores:
| Score-Bereich | Einstufung | Empfehlung |
|---|---|---|
| 25–45 | Grundlegende Defizite | Fokus auf Digitalisierung und Dateninfrastruktur. KI-Projekte sind verfrüht. Investieren Sie zuerst in Basiskompetenz. |
| 46–65 | Anfänge erkennbar | Gezielte Investitionen in die schwächsten Dimensionen. Starten Sie mit einem einfachen, datennahen Pilotprojekt. |
| 66–85 | Solide Grundlage | Sie sind bereit für strukturierte KI-Projekte. Fokus auf Skalierung und Governance. |
| 86–105 | Gut aufgestellt | Ambitionierte Projekte sind möglich. Fokus auf Industrialisierung, MLOps und Center of Excellence. |
| 106–125 | Best-in-Class | Sie gehören zur Spitzengruppe. Fokus auf Innovation, Differenzierung und Wettbewerbsvorteile durch KI. |
Branchen-Benchmarks (Durchschnittswerte aus unseren Assessments):
| Branche | Typischer Score | Stärkste Dimension | Schwächste Dimension |
|---|---|---|---|
| Finanzdienstleistungen | 78 | Technische Infrastruktur | Organisationskultur |
| Fertigungsindustrie | 58 | Domänenwissen | Datenreife |
| Gesundheitswesen | 52 | Compliance-Bewusstsein | Technische Infrastruktur |
| E-Commerce/Retail | 72 | Datenreife | KI-Kompetenzen |
| Professional Services | 62 | Strategie | Technische Infrastruktur |
| Öffentlicher Sektor | 45 | Governance | Experimentierfreude |
Typischer Assessment-Ablauf und -Kosten
Ein professionelles KI-Readiness-Assessment dauert typischerweise 2–3 Wochen und folgt diesem Ablauf:
Woche 1 — Discovery: Interviews mit 8–12 Stakeholdern (C-Level, IT-Leitung, Fachbereichsleiter, operative Mitarbeiter). Analyse der bestehenden IT-Landschaft und Dateninfrastruktur. Sichtung vorhandener Strategiedokumente und Projektpläne.
Woche 2 — Analyse und Scoring: Bewertung aller 25 Kriterien auf Basis der Discovery-Ergebnisse. Identifikation von Quick Wins und strategischen Lücken. Erarbeitung von 3–5 priorisierten Handlungsempfehlungen.
Woche 3 — Ergebnispräsentation: Management-Präsentation mit Score, Benchmark-Vergleich und priorisierter Roadmap. Detailbericht mit Maßnahmenplan und Budgetrahmen pro Handlungsfeld. Workshop zur gemeinsamen Priorisierung.
Kosten: Ein professionelles Assessment liegt bei 8.000–15.000 Euro — abhängig von der Unternehmensgröße und der Anzahl der einbezogenen Stakeholder. Das klingt nach einer Investition, relativiert sich aber schnell: Es verhindert typischerweise Fehlausgaben im fünf- bis sechsstelligen Bereich.
Fallbeispiel: Vom Score 48 auf 88 in 18 Monaten
Ein mittelständischer Versicherungsmakler mit 200 Mitarbeitern ließ Anfang 2024 ein KI-Readiness-Assessment durchführen. Die Ausgangssituation:
| Dimension | Score (Anfang 2024) | Hauptproblem |
|---|---|---|
| Datenreife | 8/25 | Kundendaten in 4 verschiedenen Systemen, keine zentrale Sicht |
| Technische Infrastruktur | 10/25 | Alles On-Premise, kein CI/CD, manuelle Deployments |
| Kompetenzen | 12/25 | Ein Entwickler mit Python-Kenntnissen, kein ML-Know-how |
| Organisationskultur | 10/25 | Konservative Kultur, Angst vor Automatisierung |
| Strategie/Governance | 8/25 | KI als vages Innovationsthema, kein Budget |
| Gesamt | 48/125 |
Maßnahmenpaket (priorisiert):
Quartal 1–2: Datengrundlage schaffen (Invest: 60.000 Euro): Einführung einer zentralen Datenplattform (Cloud Data Warehouse auf Snowflake). Migration der Kundendaten aus 4 Systemen mit Deduplizierung. Aufbau grundlegender Datenqualitätschecks. Ergebnis: Datenreife von 8 auf 16 Punkte.
Quartal 2–3: Infrastruktur modernisieren (Invest: 35.000 Euro): Cloud-Migration der Entwicklungsumgebung (AWS). Einführung von Git, Docker und CI/CD-Pipeline. Erste API-Schnittstellen zum Bestandssystem. Ergebnis: Technische Infrastruktur von 10 auf 17 Punkte.
Quartal 2–4: Kompetenzen aufbauen (Invest: 25.000 Euro): Einstellung eines Junior Data Scientist. KI-Grundlagen-Schulung für 30 Mitarbeiter (2-tägiger Workshop). Management-Briefing zu KI-Potenzialen und -Grenzen. Ergebnis: Kompetenzen von 12 auf 18 Punkte.
Quartal 3–4: Kultur und Pilotprojekt (Invest: 40.000 Euro): Start eines Pilotprojekts: KI-gestützte Risikobewertung bei Neuanträgen. Einbindung von Fachmitarbeitern als Domain Experts in das Projektteam. Regelmäßige Show-and-Tell-Sessions für alle Mitarbeiter. Ergebnis: Organisationskultur von 10 auf 17 Punkte.
Quartal 4–6: Strategie formalisieren (Invest: 15.000 Euro): Erarbeitung einer KI-Strategie mit priorisierter Use-Case-Pipeline. Definition von KI-Governance-Richtlinien. Freigabe eines Mehrjahresbudgets durch die Geschäftsführung. Ergebnis: Strategie/Governance von 8 auf 20 Punkte.
Ergebnis nach 18 Monaten:
| Dimension | Vorher | Nachher | Veränderung |
|---|---|---|---|
| Datenreife | 8 | 16 | +8 |
| Technische Infrastruktur | 10 | 17 | +7 |
| Kompetenzen | 12 | 18 | +6 |
| Organisationskultur | 10 | 17 | +7 |
| Strategie/Governance | 8 | 20 | +12 |
| Gesamt | 48 | 88 | +40 |
Gesamtinvestition: ca. 175.000 Euro über 18 Monate. Das Pilotprojekt (Risikobewertung) lieferte nach 6 Monaten Produktivbetrieb einen Mehrwert von ca. 120.000 Euro pro Jahr durch schnellere Bearbeitung und bessere Risikoeinschätzung.
Tools für die Selbsteinschätzung
Für eine erste Orientierung können Sie das Assessment intern durchführen. Einige Tipps:
Wer sollte bewerten? Mindestens 5 Personen aus verschiedenen Bereichen: IT-Leitung, ein Fachbereichsleiter, ein operativer Mitarbeiter, Geschäftsführung und — falls vorhanden — jemand mit Datenkompetenz. Lassen Sie jeden unabhängig bewerten und vergleichen Sie die Ergebnisse. Große Diskrepanzen zwischen den Bewertungen sind ein Signal in sich: Sie zeigen, dass das Bild des Unternehmens stark von der Perspektive abhängt.
Häufige Selbsteinschätzungsfehler:
- Dunning-Kruger-Effekt: Teams ohne KI-Erfahrung überschätzen ihre Readiness systematisch. Wenn niemand weiß, was “gut” aussieht, erscheint der Status quo ausreichend.
- Wunschdenken bei Datenqualität: “Unsere Daten sind gut” ist die häufigste Fehleinschätzung. Erst wenn Sie konkret versuchen, Daten für einen Use Case aufzubereiten, zeigt sich die Realität.
- Infrastruktur-Überschätzung: “Wir haben Cloud” bedeutet nicht automatisch, dass ML-Workloads möglich sind. Prüfen Sie konkret: Können Sie morgen einen Docker-Container mit einem Python-ML-Modell deployen?
Hilfreiche Fragen zur Kalibrierung:
- Wie lange dauert es, einen einfachen Report über Kundenzufriedenheit der letzten 12 Monate zu erstellen? (Unter 1 Stunde = Score 4+, über 1 Woche = Score 2-)
- Wie viele Ihrer Geschäftsprozesse könnten Sie anhand von Daten beschreiben? (Über 80 % = Score 4+, unter 30 % = Score 2-)
- Was passiert, wenn Ihr bester Entwickler morgen kündigt? (Nichts Kritisches = Score 4+, Projektstopp = Score 2-)
Nächste Schritte nach dem Assessment
- Priorisieren: Welche Lücken haben den größten Impact? In der Regel ist Datenreife der kritischste Engpass. Ohne Daten kein KI-Projekt — egal wie gut Infrastruktur und Team sind.
- Quick Wins identifizieren: Wo können Sie schnell Fortschritte zeigen? Typische Quick Wins: Einführung eines BI-Dashboards, erste API-Schnittstelle zum ERP, KI-Grundlagen-Workshop für das Management.
- Roadmap erstellen: Realistischer Zeitplan mit klaren Meilensteinen und Budgets. Denken Sie in Quartalen, nicht in Jahren.
- Pilotprojekt wählen: Ein Projekt mit hoher Erfolgswahrscheinlichkeit starten. Kriterien: vorhandene Daten, klarer Nutzen, engagierte Fachabteilung, überschaubare Komplexität.
- KI-Strategie entwickeln: Auf Basis der Readiness-Ergebnisse eine KI-Strategie erarbeiten, die Ihre spezifische Ausgangslage berücksichtigt.
Fazit
Ein ehrliches Readiness Assessment ist keine Bremse, sondern ein Beschleuniger. Es verhindert teure Fehlstarts und schafft die Grundlage für nachhaltige KI-Erfolge. Die Unternehmen, die am schnellsten vorankommen, sind nicht die mit dem größten Budget, sondern die, die ihre Ausgangslage am realistischsten einschätzen und systematisch an den richtigen Stellschrauben drehen.
Die wichtigste Erkenntnis aus über 30 Assessments: Es gibt kein Unternehmen, das “nicht bereit für KI” ist. Es gibt nur Unternehmen, die an den falschen Stellen starten. Ein strukturiertes Assessment zeigt Ihnen, wo der richtige Einstiegspunkt liegt.
Möchten Sie Ihre KI-Readiness professionell bewerten lassen? Kontaktieren Sie uns für ein unverbindliches Gespräch.