S
sicherheit.ai
KI-Sicherheit & Cybersecurity
_
KI

Shadow AI

Nicht autorisierte Nutzung von KI-Tools und -Diensten durch Mitarbeiter ohne Wissen oder Genehmigung der IT- oder Sicherheitsabteilung.

🧒
Einfach erklärt
Für jeden verständlich — ohne Vorkenntnisse

Ein Mitarbeiter kopiert eine vertrauliche Kundenpräsentation in ChatGPT um sie besser zu formulieren. Das IT-Team weiß nichts davon. Die Daten sind nun auf einem externen Server — möglicherweise für das Training des KI-Modells verwendet. Das ist Shadow AI: KI-Nutzung im Verborgenen.

Ausführliche Erklärung

Analog zu Shadow IT bezeichnet Shadow AI die unkontrollierte Nutzung von KI-Diensten (ChatGPT, Claude, Copilot) durch Mitarbeiter für Arbeitsaufgaben. Risiken: Vertrauliche Unternehmensdaten (Quellcode, Kundendaten, Finanzdaten) werden an externe KI-Dienste übermittelt und könnten im Training genutzt werden, Compliance-Verstöße (DSGVO), unkontrollierte KI-Outputs in Geschäftsprozessen und fehlende Governance. Gegen Shadow AI hilft: klare KI-Nutzungsrichtlinien, genehmigte KI-Alternativen und technische Kontrollmaßnahmen.

>Wie funktioniert das?

1

Mitarbeiter entdecken öffentliche KI-Tools (ChatGPT, Claude, etc.) die ihre Arbeit erleichtern

2

Ohne Genehmigung oder Richtlinien werden sensible Inhalte in diese Tools eingegeben

3

Daten verlassen die Unternehmensumgebung und landen auf externen Servern

4

IT und Security haben keine Sichtbarkeit auf diese Datenflüsse

5

Compliance-Verstöße, Datenlecks oder unkontrollierte KI-Abhängigkeiten entstehen unbemerkt.

?Häufig gestellte Fragen
Antwort

Produktive Mitarbeiter die KI als Produktivitätswerkzeug entdecken — von Entwicklern (Copilot) über Marketingteams (Texterstellung) bis zu HR (Bewerbungen schreiben) — ohne Sicherheitsbedenken.

Antwort

Vertrauliche Geschäftsinformationen, Kundendaten (DSGVO-Verstoß), Quellcode (IP-Verlust), Finanzdaten und personenbezogene Mitarbeiterdaten können unbeabsichtigt an externe KI-Dienste übermittelt werden.

Antwort

Um klare Regeln zu setzen: welche KI-Dienste sind erlaubt, welche Daten dürfen eingegeben werden, welche Prozesse erfordern menschliche Überprüfung — und um Mitarbeitern sichere Alternativen anzubieten.

Antwort

Weil Mitarbeiter KI-Tools als zu wertvoll empfinden um darauf zu verzichten — Verbote ohne Alternativen führen zu kreativeren Umgehungen. Besserer Ansatz: Genehmigung sicherer KI-Lösungen.

Antwort

Durch Network Monitoring (Verbindungen zu bekannten KI-APIs), DLP-Systeme (Datenverlustprävention), Browser-Erweiterungen die AI-Nutzung protokollieren und regelmäßige Mitarbeiterbefragungen.

Alle Begriffe im Glossar
APTBrute-Force-AngriffBotnetCVECredential StuffingDDoSEDRFirewallHoneypotIDSKI-Angriff (Adversarial AI)Lateral MovementLLM-SicherheitMalwareMFANetzwerksegmentierungOSINTPasskeysPatch ManagementPhishingPrompt InjectionRansomwareSIEMSocial EngineeringSQL-InjectionThreat IntelligenceTTPWAFXDRZero-DayZero TrustXSSCSRFMitMSupply-Chain-AngriffSpear-PhishingVishingSmishingWatering-Hole-AngriffDrive-by-DownloadInsider-BedrohungTyposquattingClickjackingDNS-SpoofingSession-HijackingBECCryptojackingSIM-SwappingSOCPentestThreat HuntingRed TeamBlue TeamDevSecOpsSecurity Awareness TrainingVulnerability ManagementSASTDAST3-2-1 Backup-StrategieCyber-VersicherungNIS2DSGVOISO/IEC 27001BSI IT-GrundschutzNIST CSFKRITIS — Kritische InfrastrukturenPCI-DSSCRATISAX — Automotive InformationssicherheitBCMMeldepflicht bei DatenpannenAdversarial Machine LearningModel PoisoningDeepfakeKI-HalluzinationLLM-JailbreakFederated LearningShadow AITrojanerComputerwurmSpywareRootkitKeyloggerFileless MalwareBackdoorInfostealerWiperwareAdwareOAuth 2.0SAMLSSOPAMIAMRBACPasswort-ManagerBiometrische AuthentifizierungHardware-SicherheitsschlüsselVPNDMZVLANPort-ScanningBGP-HijackingIPSNACTLSSSHHTTPS — HyperText Transfer Protocol SecureSPF, DKIM & DMARC — E-Mail-AuthentifizierungIPsec — Internet Protocol SecurityAPI-SicherheitDNSSEC