LLM-Sicherheit im Unternehmenseinsatz

Veröffentlicht am 15. Juli 2025 von Christopher Wittlinger

Large Language Models eröffnen enorme Möglichkeiten – aber auch neue Angriffsvektoren, die in traditionellen IT-Sicherheitskonzepten nicht vorgesehen sind. Die OWASP Foundation hat 2023 erstmals eine eigene Top-10-Liste für LLM-Sicherheitsrisiken veröffentlicht, und die dokumentierten Vorfälle nehmen rapide zu. Unternehmen müssen die Sicherheitsrisiken verstehen und adressieren, bevor sie LLMs in kritische Prozesse integrieren.

In diesem Beitrag behandle ich die fünf wichtigsten Bedrohungen mit realen Vorfällen, stelle eine Defense-in-Depth-Architektur vor und gebe eine priorisierte Implementierungs-Checkliste für Enterprise-Umgebungen.

OWASP Top 10 für LLM-Anwendungen

Die OWASP Top 10 für LLM Applications (Version 1.1, 2024) definiert die kritischsten Sicherheitsrisiken. Die folgende Übersicht ordnet sie ein:

OWASP RangRisikoRelevanz für Enterprise
LLM01Prompt InjectionKritisch – betrifft jede LLM-Anwendung
LLM02Insecure Output HandlingHoch – besonders bei Tool-Nutzung
LLM03Training Data PoisoningMittel – relevant bei eigenem Training
LLM04Model Denial of ServiceHoch – Kosten und Verfügbarkeit
LLM05Supply Chain VulnerabilitiesHoch – Open-Source-Modelle
LLM06Sensitive Information DisclosureKritisch – Datenschutz
LLM07Insecure Plugin DesignHoch – bei Agentic AI
LLM08Excessive AgencyKritisch – bei Agenten mit Aktionen
LLM09OverrelianceMittel – organisatorisches Risiko
LLM10Model TheftMittel – bei eigenen Modellen

Im Folgenden gehe ich auf die fünf praxisrelevantesten Bedrohungen ein.

Die wichtigsten Bedrohungen

1. Prompt Injection (OWASP LLM01)

Angreifer schleusen Anweisungen in Nutzereingaben ein, die das System zu unerwünschtem Verhalten verleiten. Dies ist das am schwierigsten zu lösende LLM-Sicherheitsproblem, weil Sprachmodelle konstruktionsbedingt Anweisungen in natürlicher Sprache folgen.

Man unterscheidet zwei Varianten:

Realer Vorfall: Im Jahr 2023 demonstrierten Sicherheitsforscher, wie eine in einer Webseite versteckte Anweisung den Bing Chat dazu brachte, vertrauliche Informationen aus dem bisherigen Gesprächsverlauf eines Nutzers preiszugeben. Die manipulative Anweisung war als weißer Text auf weißem Hintergrund unsichtbar für den Menschen – aber sichtbar für das LLM, das die Webseite als Kontext verarbeitete.

Gegenmaßnahmen (nach Priorität):

  1. Privilegien des LLMs minimieren: Das Modell darf keine Aktionen ausführen, die über das für den Use Case Notwendige hinausgehen. Ein Chatbot für Produktfragen braucht keinen Zugriff auf interne Systeme.
  2. System-Prompts von User-Prompts trennen: Verwenden Sie die Rollen-Architektur (System, User, Assistant) konsequent. System-Prompts sollten nicht durch User-Eingaben überschreibbar sein.
  3. Input-Validierung und Sanitization: Filtern Sie bekannte Injection-Muster. Begrenzen Sie die Eingabelänge. Verwenden Sie Allowlists für erlaubte Sonderzeichen.
  4. Output-Filterung: Scannen Sie die Ausgabe auf sensible Muster (Credentials, API-Keys, interne URLs), bevor sie dem Nutzer angezeigt wird.
  5. Canary Tokens: Platzieren Sie eindeutige Marker im System-Prompt. Wenn diese in der Ausgabe auftauchen, ist das ein Hinweis auf eine erfolgreiche Injection.

2. Data Leakage / Sensitive Information Disclosure (OWASP LLM06)

Das Modell gibt sensible Informationen preis, die im Training, Fine-Tuning oder im bereitgestellten Kontext enthalten waren.

Typen von Data Leakage:

Realer Vorfall: Samsung-Mitarbeiter haben 2023 vertraulichen Quellcode und Meeting-Protokolle in ChatGPT eingegeben. Die Daten wurden Teil der Trainingsdaten und konnten potenziell von anderen Nutzern abgerufen werden. Samsung hat daraufhin die Nutzung externer KI-Dienste unternehmensweit verboten – eine Überreaktion, die sich durch vorausschauendes Sicherheitsdesign hätte vermeiden lassen.

Ähnliche Vorfälle gab es bei weiteren Unternehmen: Amazon warnte Mitarbeiter, nachdem ChatGPT Antworten generiert hatte, die internen Amazon-Code ähnelten. JP Morgan untersagte die Nutzung von ChatGPT präventiv.

Gegenmaßnahmen:

3. Jailbreaking (Teil von OWASP LLM01)

Nutzer umgehen Sicherheitsrichtlinien durch geschickte Prompt-Techniken. Anders als Prompt Injection zielt Jailbreaking nicht auf den Diebstahl von Daten, sondern auf das Aushebeln von Content-Policies.

Gängige Techniken:

Gegenmaßnahmen:

4. Denial of Service und Kostenattacken (OWASP LLM04)

Überlastung des Systems durch ressourcenintensive Anfragen oder gezielte Kostenexplosion.

Angriffsvektoren:

Realer Vorfall: Mehrere Unternehmen berichteten 2024 von unerwartet hohen API-Rechnungen, nachdem automatisierte Scripts tausende Token-intensive Anfragen an ihre LLM-Endpoints sendeten. Ein Startup verlor innerhalb einer Woche über 20.000 USD an OpenAI-API-Kosten durch einen solchen Angriff.

Gegenmaßnahmen:

5. Supply Chain Attacks (OWASP LLM05)

Kompromittierte Modelle, Bibliotheken oder Datenquellen stellen ein unterschätztes Risiko dar, insbesondere bei der Nutzung von Open-Source-Modellen.

Angriffsvektoren:

Realer Vorfall: Anfang 2024 entdeckten Forscher von JFrog über 100 bösartige ML-Modelle auf Hugging Face, die bei Laden des Modells Schadcode ausführten – ermöglicht durch das unsichere Pickle-Format. Betroffen waren Modelle mit tausenden Downloads.

Gegenmaßnahmen:

Sicherheitsarchitektur für LLM-Systeme

Defense in Depth

Setzen Sie auf mehrere Verteidigungsschichten, die unabhängig voneinander wirken. Wenn eine Schicht versagt, fangen die anderen den Angriff ab.

  1. Perimeter: WAF (Web Application Firewall), DDoS-Schutz, API-Gateway mit Rate Limiting und IP-Whitelisting. Diese Schicht filtert Bots, automatisierte Angriffe und offensichtlich bösartigen Traffic.
  2. Applikation: Input-Validierung (Längenbegrenzung, Format-Prüfung, Injection-Pattern-Erkennung) und Output-Filterung (PII-Scanning, Content-Klassifikation, Guardrails). Hier werden LLM-spezifische Angriffe abgefangen.
  3. Modell: Guardrails (Llama Guard, NeMo Guardrails), Content-Policies, System-Prompt-Hardening. Diese Schicht arbeitet auf semantischer Ebene und erkennt Angriffe, die technische Filter nicht erfassen.
  4. Daten: Zugriffskontrollen auf Dokumentebene, Verschlüsselung at rest und in transit, Data Classification Labels. Stellt sicher, dass das LLM nur Daten sieht, die der anfragende Nutzer sehen darf.
  5. Monitoring: Anomalie-Erkennung (ungewöhnliche Nutzungsmuster, Kosten-Spikes), Audit-Logs (wer hat was wann angefragt), Alerting (Echtzeit-Benachrichtigung bei Sicherheitsvorfällen).

Principle of Least Privilege

Das LLM sollte nur die minimal notwendigen Berechtigungen haben:

Human in the Loop

Für kritische Aktionen sollte menschliche Freigabe erforderlich sein:

Security Testing Methodology

Ein strukturiertes Vorgehen für LLM-Security-Tests umfasst vier Phasen:

Phase 1: Threat Modeling (vor dem Go-Live)

Phase 2: Automatisierte Tests (kontinuierlich)

Phase 3: Red Teaming (quartalsweise)

Phase 4: Incident Response Drill (halbjährlich)

Kosten von Security vs. Kosten eines Breaches

Unternehmen unterschätzen regelmäßig die Kosten eines Sicherheitsvorfalls im Vergleich zu den Kosten präventiver Maßnahmen.

Kosten eines LLM-Sicherheitsvorfalls

KostenpositionGeschätzte Kosten
Incident Response und Forensik50.000–200.000 €
Rechtsberatung und Compliance30.000–150.000 €
DSGVO-Bußgeld (bei PII-Leak)bis 20 Mio. € oder 4% Umsatz
Reputationsschaden (geschätzt)100.000–1.000.000 €
Kundenverlust und Umsatzeinbußevariabel, oft 5–15% der betroffenen Kunden
Systemabschaltung und Neuaufbau50.000–300.000 €

Kosten präventiver Sicherheitsmaßnahmen

MaßnahmeJährliche Kosten
Guardrails und Content-Filter (Setup + Betrieb)15.000–40.000 €
Monitoring und Logging10.000–25.000 €
Quartalsweise Red-Team-Tests20.000–60.000 €
Security-Schulung für Entwickler5.000–15.000 €
Automated Security Testing (CI/CD)5.000–10.000 €
Gesamt55.000–150.000 €

Die Gleichung ist eindeutig: Präventive Sicherheit kostet einen Bruchteil eines einzigen Vorfalls.

Implementierungs-Prioritätsmatrix

Nicht alle Maßnahmen müssen gleichzeitig umgesetzt werden. Priorisieren Sie nach Risikominderung und Aufwand:

Sofort (Woche 1–2)

Kurzfristig (Monat 1–2)

Mittelfristig (Monat 3–6)

Langfristig (laufend)

Monitoring-Metriken für LLM-Sicherheit

Folgende Metriken sollten Sie kontinuierlich tracken:

Compliance-Anforderungen

Beachten Sie regulatorische Anforderungen, die über den AI Act hinausgehen:

Praktische Checkliste

Fazit

LLM-Sicherheit ist keine einmalige Aufgabe, sondern ein kontinuierlicher Prozess. Die Bedrohungslandschaft entwickelt sich ständig weiter – neue Jailbreaking-Techniken werden wöchentlich veröffentlicht, und die Angriffsfläche wächst mit jeder neuen Fähigkeit, die LLMs erhalten (Tool Use, Code Execution, Agentisches Verhalten).

Der wichtigste Grundsatz: Security by Design von Anfang an. Sicherheit nachträglich einzubauen ist immer teurer und weniger effektiv als sie von Beginn an mitzudenken. Starten Sie mit den Sofort-Maßnahmen – Rate Limiting, Prompt-Trennung, PII-Filterung – und bauen Sie systematisch aus.

Die Investition in Sicherheit ist nicht optional. Sie ist die Voraussetzung dafür, dass Ihr Unternehmen das Potenzial von LLMs tatsächlich nutzen kann – ohne eines Morgens in der Zeitung zu stehen.

Benötigen Sie eine Sicherheitsbewertung Ihrer LLM-Implementierung? Kontaktieren Sie uns für ein Security Assessment mit Threat Modeling, Red-Team-Test und priorisiertem Maßnahmenplan.