Interne KI-Plattformen: Aufbauen statt kaufen

Veröffentlicht am 20. Juni 2025 von Christopher Wittlinger

Immer mehr Unternehmen entscheiden sich, eigene KI-Plattformen aufzubauen, statt auf fertige SaaS-Lösungen zu setzen. Die Gründe sind vielfältig: Datensouveränität, Flexibilität, Kosteneffizienz bei Skalierung. Doch der Aufbau einer internen Plattform ist anspruchsvoll – und die Entscheidung zwischen Build und Buy will gut kalkuliert sein. In diesem Beitrag zeige ich, wann sich eine eigene Plattform rechnet, wie Sie den Aufbau strukturieren und welche typischen Fehler Sie vermeiden sollten.

Warum eine eigene Plattform?

Vorteile

Nachteile

Total Cost of Ownership: Build vs Buy über 3 Jahre

Die häufigste Fehleinschätzung bei der Build-vs-Buy-Entscheidung ist die Fokussierung auf initiale Kosten statt auf die Gesamtkosten über den Nutzungszeitraum. Hier ein realistischer Vergleich für ein mittelständisches Unternehmen mit 200 aktiven Nutzern und ca. 500.000 LLM-Anfragen pro Monat:

SaaS-Lösung (Buy)

KostenpositionMonat3 Jahre
SaaS-Lizenzkosten (200 Nutzer)8.000 €288.000 €
API-Kosten (OpenAI, Anthropic)6.000 €216.000 €
Integration & Customizing (intern)2.000 €72.000 €
Compliance & Audit (extern)500 €18.000 €
Gesamt16.500 €594.000 €

Eigene Plattform (Build)

KostenpositionMonat3 Jahre
Initiale Entwicklung (einmalig)250.000 €
Cloud-Infrastruktur (GPU + Storage)4.500 €162.000 €
Plattform-Team (anteilig 1,5 FTE)12.000 €432.000 €
Open-Source-Modelle (Hosting)1.500 €54.000 €
API-Kosten (hybrid, reduziert)1.500 €54.000 €
Gesamt– / 19.500 €952.000 €

Auf den ersten Blick scheint Buy günstiger. Doch die Rechnung verschiebt sich drastisch bei wachsendem Volumen: Verdoppelt sich die Nutzung auf 1 Million Anfragen pro Monat, steigen die SaaS-Kosten nahezu linear auf über 1,1 Mio. € in 3 Jahren. Die eigene Plattform skaliert dagegen mit marginalen Mehrkosten auf rund 1,05 Mio. €. Ab ca. 800.000 Anfragen pro Monat kippt die Rechnung zugunsten von Build.

Dazu kommt ein Faktor, der sich schwer beziffern lässt: Bei der eigenen Plattform bauen Sie internes Know-how auf. Bei SaaS bleibt das Wissen beim Anbieter. Für Strategien zur Kostenoptimierung bei der LLM-Inferenz lohnt sich ein separater Blick auf Batch-Processing, Caching und Modellwahl.

Architektur einer KI-Plattform

Eine moderne interne KI-Plattform besteht aus mehreren Schichten, die aufeinander aufbauen. Jede Schicht hat spezifische Anforderungen an Technologie, Betrieb und Sicherheit.

1. Infrastruktur-Schicht

2. ML-Plattform-Schicht

3. Inference-Schicht

4. Anwendungs-Schicht

Build vs Buy: Die Entscheidungsmatrix

Nicht jede Komponente muss selbst gebaut werden. Die Kunst liegt darin, die richtige Mischung zu finden:

KomponenteBuildBuyEmpfehlungBegründung
GPU-InfrastrukturCloud (außer bei sehr hohem Volumen)Capex vermeiden, Flexibilität nutzen
Experiment TrackingMLflow (Open Source)Industriestandard, kein Lock-in
Vector DatabaseManaged Service oder Self-hosted OSSpgvector reicht oft aus
LLMAPI-Zugang + Open-Source für spezielle FälleMixtral, Llama für sensible Daten
RAG-PipelineCustom (geschäftskritisch)Differenzierung, Domänenwissen
Prompt ManagementCustom (IP)Kernkompetenz, schnelle Iteration
MonitoringBestehende Observability-Tools erweiternGrafana + Langfuse
Security LayerCustom + OSS (Guardrails)Unternehmensrichtlinien einhalten

Faustregel: Bauen Sie das, was Sie differenziert. Kaufen Sie Infrastruktur und Commodity-Tools.

Das richtige Team zusammenstellen

Der Aufbau einer KI-Plattform scheitert selten an der Technologie – sondern am Team. Hier ist eine realistische Teamstruktur für den Start:

Kern-Team (Phase 1: Aufbau, 3–6 Monate)

Erweitertes Team (Phase 2: Betrieb und Skalierung)

Gesamtkosten für das Team: Rechnen Sie mit 400.000–700.000 € pro Jahr (voll beladen) in Deutschland. Das klingt viel, aber verteilt auf 10–20 interne Teams, die die Plattform nutzen, relativieren sich die Kosten schnell.

Migration von SaaS zu Self-Hosted

Viele Unternehmen starten mit SaaS-Lösungen und migrieren später auf eigene Infrastruktur. Dieser Übergang muss sorgfältig geplant werden.

Phase 1: Parallelbetrieb (Monat 1–3)

Phase 2: Schrittweise Migration (Monat 3–6)

Phase 3: Konsolidierung (Monat 6–9)

Risikominimierung während der Migration

Operational Maturity Model

Nicht jede Organisation braucht eine voll ausgebaute Plattform. Das folgende Reifegradmodell hilft bei der Einordnung:

Stufe 1: Experimentiell

Stufe 2: Projektbasiert

Stufe 3: Plattform

Stufe 4: Produktisiert

Die meisten Unternehmen, die eine eigene Plattform erwägen, befinden sich auf Stufe 2 und wollen zu Stufe 3. Der Sprung von Stufe 2 zu 3 ist der anspruchsvollste, weil er organisatorische Veränderungen erfordert, nicht nur technische.

Erfolgsfaktoren

1. Klarer Scope

Definieren Sie genau, welche Use Cases die Plattform unterstützen soll. Vermeiden Sie die “Plattform für alles”. Starten Sie mit maximal 3 konkreten Use Cases und erweitern Sie von dort. Ein mittelständisches Logistikunternehmen könnte z. B. mit Routenoptimierung, Dokumentenverarbeitung und internem Chatbot starten.

2. Iteratives Vorgehen

Starten Sie mit einem konkreten Use Case und erweitern Sie schrittweise. Kein Big Bang. Der erste Use Case sollte innerhalb von 6–8 Wochen produktiv sein. Das schafft Vertrauen bei Stakeholdern und liefert frühes Feedback für die Plattformarchitektur.

3. Developer Experience

Die Plattform ist nur wertvoll, wenn sie genutzt wird. Investieren Sie in Dokumentation, SDKs und Support. Messen Sie die Time-to-First-Deployment: Wie lange braucht ein neues Team, um seinen ersten Use Case auf der Plattform live zu bringen? Zielwert: unter 2 Wochen.

4. Governance von Anfang an

Etablieren Sie früh Richtlinien für Modellnutzung, Datenhandling und Kostenallokation. Wer darf welche Modelle nutzen? Wer trägt die GPU-Kosten? Wie werden Modelle freigegeben? Diese Fragen werden mit jedem weiteren Team schwieriger zu beantworten, wenn sie nicht früh geklärt sind.

5. Messbarer Mehrwert

Definieren Sie KPIs für die Plattform und tracken Sie diese konsequent:

Typische Fehler

Fazit

Eine interne KI-Plattform ist eine strategische Investition, die sich bei entsprechendem Nutzungsvolumen deutlich auszahlt. Der Break-even liegt typischerweise bei 5–10 aktiven Use Cases oder 500.000+ monatlichen Inferenzanfragen. Der Schlüssel zum Erfolg liegt in pragmatischem Vorgehen: Open-Source-Komponenten nutzen, wo sinnvoll, Custom-Entwicklung auf die differenzierenden Elemente fokussieren, und das Team schrittweise aufbauen.

Beginnen Sie nicht mit der Plattform, sondern mit dem Problem. Identifizieren Sie die Use Cases, die den größten Business-Wert haben, und lassen Sie die Plattform organisch um diese Anforderungen herum wachsen. Das reduziert das Risiko und stellt sicher, dass Sie bauen, was tatsächlich gebraucht wird.

Planen Sie den Aufbau einer internen KI-Plattform? Kontaktieren Sie uns für Architekturberatung und eine realistische TCO-Analyse.