S
sicherheit.ai
KI-Sicherheit & Cybersecurity
_
← Blog/Unternehmensrisiko
Unternehmensrisiko

Shadow AI: Wenn Mitarbeiter KI-Tools ohne IT-Wissen nutzen

s
sicherheit.ai Redaktion
Basierend auf: Salesforce AI Survey 2024, Cyberhaven Research 2023, Gartner IT-Report 2024
09. Mai 2026·9 min Lesezeit
#Shadow AI#KI-Governance#DSGVO#Datenleck#Unternehmensrisiko#Shadow IT

Shadow AI bezeichnet den unkontrollierten Einsatz von KI-Tools durch Mitarbeiter ohne Wissen der IT-Abteilung. Die Folgen reichen von DSGVO-Verstößen bis zu massiven Datenlecks. Wie Unternehmen das Risiko erkennen und kontrollieren.

Was ist Shadow AI?

Shadow AI ist ein Phänomen, das sich aus dem älteren Konzept der "Shadow IT" ableitet: Mitarbeiter nutzen Softwaretools und digitale Dienste, die von der IT-Abteilung weder genehmigt noch kontrolliert werden. Im Kontext künstlicher Intelligenz bedeutet dies den Einsatz von KI-Anwendungen wie ChatGPT, Google Gemini, Claude, Copilot oder spezialisierten KI-Tools für Bildgenerierung, Transkription und Datenanalyse, ohne dass die IT-Abteilung darüber informiert ist oder diese Nutzung in die Sicherheitsarchitektur des Unternehmens eingebettet ist.

Das Ausmaß ist erheblich: Laut einer Umfrage von Salesforce aus dem Jahr 2024 nutzen 55% der Mitarbeiter KI-Tools bei der Arbeit, und über die Hälfte davon tut dies ohne explizite Genehmigung des Arbeitgebers. Eine separate Studie von Cyberhaven aus dem Jahr 2023 zeigte, dass 10,7% aller in ChatGPT eingegebenen Daten als vertraulich klassifiziert werden könnten.

Shadow AI entsteht nicht aus böser Absicht. Mitarbeiter suchen nach effektiveren Wegen, ihre Arbeit zu erledigen, und KI-Tools bieten echte Produktivitätsgewinne. Das Problem liegt in der fehlenden Kontrolle über die Datenweitergabe, die Verarbeitung durch Drittanbieter und die Qualität der KI-Ausgaben.

Konkrete Risiken durch Shadow AI im Unternehmensumfeld

Datenlecks und Verlust von Geschäftsgeheimnissen

Wenn Mitarbeiter vertrauliche Unternehmensinformationen in externe KI-Dienste eingeben, verlassen diese Daten die Kontrolle des Unternehmens. Viele KI-Anbieter nutzen eingegebene Daten standardmäßig zum Training ihrer Modelle, sofern Nutzer dies nicht explizit deaktivieren. Samsung musste im April 2023 die Nutzung von ChatGPT intern sperren, nachdem Mitarbeiter in kurzer Zeit dreimal vertraulichen Quellcode und Besprechungsnotizen in das System eingegeben hatten.

DSGVO-Verstöße und regulatorisches Risiko

Die Weitergabe personenbezogener Daten an externe KI-Dienste ohne entsprechende Datenverarbeitungsvereinbarungen (DPA) verstößt gegen die Datenschutz-Grundverordnung. Besonders kritisch: Kundendaten, Personalakten oder medizinische Informationen dürfen nicht ohne Rechtsgrundlage an Drittanbieter übermittelt werden.

Unkontrollierte und fehlerhafte KI-Outputs

KI-Modelle produzieren Fehler, sogenannte Halluzinationen. Wenn Mitarbeiter KI-generierte Inhalte ohne Überprüfung in Berichte, Angebote oder Kundenkommunikation übernehmen, entstehen Qualitätsprobleme und Haftungsrisiken.

Lizenzverletzungen und rechtliche Risiken

KI-generierte Texte, Bilder und Code können urheberrechtlich geschütztem Material ähneln. Unternehmen, die solche Outputs ohne Kenntnis der Herkunft verwenden, setzen sich rechtlichen Risiken aus, ohne es zu wissen.

Wie Unternehmen Shadow AI erkennen

  • Netzwerk-Monitoring: Analyse des ausgehenden Datenverkehrs auf Verbindungen zu bekannten KI-Diensten (OpenAI-API, Anthropic, Google AI-Endpunkte, Midjourney etc.)
  • Browser-Plugin-Inventur: Viele KI-Tools werden als Browser-Erweiterungen genutzt. Eine Inventur installierter Plugins auf Unternehmensgeräten deckt Shadow-AI-Nutzung auf.
  • Mitarbeiterbefragungen: Anonyme Umfragen zur genutzten Software liefern oft ehrlichere Ergebnisse als technisches Monitoring.
  • SaaS-Discovery-Tools: Spezialisierte Tools wie Torii, BetterCloud oder Productiv analysieren OAuth-Verbindungen und SaaS-Nutzung in Unternehmensumgebungen.

AI-Governance einführen: Der strukturierte Ansatz

Das Ziel einer AI-Governance-Strategie ist nicht das Verbot von KI-Tools, sondern deren kontrollierte Integration. Ein Verbot ohne Alternative treibt die Nutzung weiter in den Schatten.

Schritt 1: KI-Richtlinie entwickeln

Eine klare, schriftliche Richtlinie definiert, welche KI-Tools erlaubt sind, welche Datenklassen nicht eingegeben werden dürfen und welche Ausgaben einer Überprüfung bedürfen.

Schritt 2: Genehmigte Tools bereitstellen

Unternehmen sollten sichere, datenschutzkonforme KI-Lösungen anbieten, die Mitarbeiterbedürfnisse erfüllen. Microsoft Copilot for Microsoft 365, Google Workspace Gemini oder selbst gehostete Modelle bieten KI-Funktionalität mit Unternehmenskontrolle.

Schritt 3: Schulung und Bewusstseinsbildung

Mitarbeiter müssen verstehen, warum bestimmte Tools riskant sind, nicht nur, dass sie verboten sind.

Schritt 4: Kontinuierliches Monitoring

Das KI-Tool-Ökosystem verändert sich wöchentlich. Regelmäßige Reviews der genutzten Tools und kontinuierliches Netzwerk-Monitoring sind erforderlich.

"Unternehmen, die KI-Nutzung verbieten ohne Alternativen anzubieten, verlieren den Produktivitätsvorteil und haben die Sicherheitsrisiken trotzdem. Die Lösung ist kontrolliertes Enablement, keine Prohibition." – Gartner IT-Report 2024

#Shadow AI#KI-Governance#DSGVO#Datenleck#Unternehmensrisiko#Shadow IT
// FAQ

Häufige Fragen

Q01

Ist die private Nutzung von ChatGPT durch Mitarbeiter automatisch ein Problem?

Es kommt auf den Inhalt an. Die Nutzung von ChatGPT für allgemeine Recherchen oder zum Erstellen von Textentwürfen ohne vertrauliche Unternehmensdaten ist in der Regel unkritisch. Problematisch wird es, wenn Kundendaten, interne Finanzzahlen, Quellcode oder andere vertrauliche Informationen eingegeben werden.

Q02

Was ist der Unterschied zwischen Shadow AI und genehmigter KI-Nutzung?

Bei genehmigter KI-Nutzung hat die IT-Abteilung den Dienst geprüft, eine Datenverarbeitungsvereinbarung mit dem Anbieter abgeschlossen, Datenschutzeinstellungen konfiguriert und Richtlinien für den Umgang mit Outputs definiert. Shadow AI fehlt dieser gesamte Rahmen.

Q03

Welche Branchen sind besonders von Shadow AI betroffen?

Branchen mit hohem regulatorischen Druck und gleichzeitig großem Produktivitätsdruck sind am stärksten gefährdet: Finanzdienstleistungen, Gesundheitswesen, Rechtsberatung und Unternehmensberatung.

Q04

Können Unternehmen für Shadow-AI-Verstöße ihrer Mitarbeiter haftbar gemacht werden?

Ja. Nach DSGVO ist das Unternehmen als Verantwortlicher für die Datenverarbeitung haftbar, unabhängig davon, ob ein Mitarbeiter eigenständig handelt. Die Aufsichtsbehörden prüfen, ob das Unternehmen ausreichende technische und organisatorische Maßnahmen implementiert hat.

Q05

Wie lange dauert die Implementierung einer AI-Governance-Strategie?

Eine Basisrichtlinie und erste Schulungen können innerhalb von zwei bis vier Wochen entwickelt werden. Die vollständige Implementierung mit technischem Monitoring, genehmigten Tool-Alternativen und regelmäßigen Review-Prozessen benötigt typischerweise drei bis sechs Monate.

s
sicherheit.ai Redaktion
Basierend auf: Salesforce AI Survey 2024, Cyberhaven Research 2023, Gartner IT-Report 2024
Experte für KI-Sicherheit und Cybersecurity bei sicherheit.ai