S
sicherheit.ai
KI-Sicherheit & Cybersecurity
_
Deepfake CEO-Fraud Unternehmensschutz
← Blog/KI-Bedrohung
KI-Bedrohung

Deepfakes im Unternehmenskontext: Wie CEO-Fraud durch KI eskaliert

s
sicherheit.ai Redaktion
Basierend auf: Deloitte Deepfake Report 2023, Europol EC3, dokumentierte CEO-Fraud-Fälle
06. Mai 2026·9 min Lesezeit
#Deepfakes#CEO-Fraud#KI-Betrug#Social Engineering#Audio-Deepfake#Video-Deepfake

Deepfake-Technologie wird aktiv für CEO-Fraud eingesetzt. In dokumentierten Fällen wurden Mitarbeiter durch KI-generierte Audio- und Videoinhalte zu Überweisungen in Millionenhöhe verleitet. So erkennen und schützen sich Unternehmen.

Was sind Deepfakes?

Deepfakes sind synthetische Medieninhalte (Audio, Video oder Bilder), die mithilfe von Deep-Learning-Algorithmen erstellt werden, um echte Personen täuschend echt nachzuahmen. Die Technologie basiert auf Generative Adversarial Networks (GANs) oder Diffusion Models.

Laut einem Report von Deloitte aus dem Jahr 2023 haben 25% der befragten Unternehmen bereits Deepfake-bezogene Sicherheitsvorfälle erlebt. Die tatsächliche Dunkelziffer dürfte höher liegen.

CEO-Fraud durch Deepfakes: Dokumentierte Fälle

Der bislang bekannteste dokumentierte Fall ereignete sich 2019: Ein britischer Energieversorger überwies 220.000 Euro an Cyberkriminelle, nachdem ein Mitarbeiter einen Anruf vom vermeintlichen Vorstandsvorsitzenden des deutschen Mutterkonzerns erhalten hatte. Die Stimme war mittels KI geklont worden.

2023 wurde in Hongkong ein Mitarbeiter eines Finanzunternehmens durch ein gefälschtes Video-Konferenzgespräch dazu gebracht, umgerechnet 25 Millionen US-Dollar zu überweisen. Die Angreifer hatten mehrere Kollegen des Mitarbeiters durch Deepfake-Avatare simuliert.

Wie man Deepfakes erkennt

Visuelle Artefakte in Video-Deepfakes

  • Gesichtsränder: Unnatürliche Übergänge zwischen dem geklonten Gesicht und dem restlichen Kopf, besonders bei Bewegung
  • Augen: Unnatürliches Blinzeln, starre oder fehlende Lichtreflexe in den Pupillen
  • Haare: Feinstränge am Rand des Gesichts werden von KI-Systemen oft schlecht gerendert
  • Beleuchtung: Inkonsistente Schatten zwischen Gesicht und Umgebung
  • Lippensynchronisation: Lippenbewegungen und Sprache stimmen nicht exakt überein

Artefakte in Audio-Deepfakes

  • Unnatürliche Pausen oder Atemgeräusche an falschen Stellen
  • Gleichmäßige, zu "saubere" Klangqualität ohne Hintergrundgeräusche
  • Metall-ähnlicher oder leicht roboterhafter Klang bei emotionalen Äußerungen

Technische Erkennungsmethoden

  • Deepfake-Erkennungstools: Microsoft Video Authenticator, Sensity AI, Intel FakeCatcher
  • Echtzeit-Verifizierung: Bei Videoanrufen unerwartete Aktionen anfordern, auf die KI-Systeme nicht in Echtzeit reagieren können

Schutzmaßnahmen für Unternehmen

  • Verbales Codewort-System: Führungskräfte und Mitarbeiter vereinbaren ein nicht-öffentliches Codewort für ungewöhnliche Anfragen.
  • Dual-Control-Prinzip bei Zahlungen: Keine Zahlung auf Basis eines einzigen Kommunikationskanals. Jede außergewöhnliche Überweisung muss durch einen zweiten, unabhängigen Kanal bestätigt werden.
  • Awareness-Schulungen: Mitarbeiter müssen wissen, dass Deepfake-CEO-Fraud existiert und wie Angriffsszenarien ablaufen.
  • Verifizierungsprotokoll für ungewöhnliche Anfragen: Klarer Prozess für außergewöhnliche Anfragen von Führungskräften.
  • Beschränkung öffentlicher Audio- und Videoinhalte: Je weniger öffentliches Audiomaterial von Führungskräften verfügbar ist, desto schwieriger ist die Erstellung überzeugender Stimmklone.

"Die beste Verteidigung gegen Deepfake-Betrug ist nicht Technologie, sondern Prozess. Ein Vier-Augen-Prinzip bei Überweisungen schlägt jeden Deepfake-Detektor." – Europol Cybercrime Centre (EC3)

#Deepfakes#CEO-Fraud#KI-Betrug#Social Engineering#Audio-Deepfake#Video-Deepfake
// FAQ

Häufige Fragen

Q01

Wie viel Audiomaterial wird benötigt, um eine Stimme zu klonen?

Moderne Sprachkloning-Dienste wie ElevenLabs benötigen bereits drei bis fünf Sekunden qualitatives Audiomaterial für eine grundlegende Stimmkopie. Öffentliche Interviews, Unternehmensvideos oder LinkedIn-Videos von Führungskräften liefern Angreifern ausreichend Material.

Q02

Kann ich einen Deepfake in Echtzeit erkennen?

Echtzeit-Deepfake-Erkennung ist technisch anspruchsvoll und fehleranfällig. Zuverlässiger sind strukturelle Verifizierungsmaßnahmen: unerwartete Aktionen anfordern, ein Codewort abfragen oder die Person über einen bekannten alternativen Kanal kontaktieren.

Q03

Welche Branchen sind besonders häufig Ziele von Deepfake-Angriffen?

Finanzdienstleistungen, Versicherungen und Unternehmen mit häufigen internationalen Überweisungen sind primäre Ziele. CEO-Fraud trifft statistisch am häufigsten mittelgroße Unternehmen mit weniger strikten Zahlungsprozessen als Großkonzerne.

Q04

Sind Versicherungen gegen Deepfake-Betrug verfügbar?

Cyberpolicen decken zunehmend auch Social-Engineering-Angriffe einschließlich CEO-Fraud ab. Die Deckung ist jedoch oft an Voraussetzungen geknüpft: Das Unternehmen muss Schutzmaßnahmen wie Dual-Control-Prinzipien und Mitarbeiterschulungen nachweisen.

Q05

Was sollte ein Mitarbeiter tun, der vermutet, einem Deepfake ausgesetzt worden zu sein?

Keine Transaktion durchführen und den Vorfall sofort der IT-Abteilung melden. Falls eine Überweisung bereits veranlasst wurde: sofort die Hausbank kontaktieren, um den Transfer zu stoppen, und Anzeige bei der Polizei erstatten.

s
sicherheit.ai Redaktion
Basierend auf: Deloitte Deepfake Report 2023, Europol EC3, dokumentierte CEO-Fraud-Fälle
Experte für KI-Sicherheit und Cybersecurity bei sicherheit.ai