Deepfake-Technologie wird aktiv für CEO-Fraud eingesetzt. In dokumentierten Fällen wurden Mitarbeiter durch KI-generierte Audio- und Videoinhalte zu Überweisungen in Millionenhöhe verleitet. So erkennen und schützen sich Unternehmen.
Was sind Deepfakes?
Deepfakes sind synthetische Medieninhalte (Audio, Video oder Bilder), die mithilfe von Deep-Learning-Algorithmen erstellt werden, um echte Personen täuschend echt nachzuahmen. Die Technologie basiert auf Generative Adversarial Networks (GANs) oder Diffusion Models.
Laut einem Report von Deloitte aus dem Jahr 2023 haben 25% der befragten Unternehmen bereits Deepfake-bezogene Sicherheitsvorfälle erlebt. Die tatsächliche Dunkelziffer dürfte höher liegen.
CEO-Fraud durch Deepfakes: Dokumentierte Fälle
Der bislang bekannteste dokumentierte Fall ereignete sich 2019: Ein britischer Energieversorger überwies 220.000 Euro an Cyberkriminelle, nachdem ein Mitarbeiter einen Anruf vom vermeintlichen Vorstandsvorsitzenden des deutschen Mutterkonzerns erhalten hatte. Die Stimme war mittels KI geklont worden.
2023 wurde in Hongkong ein Mitarbeiter eines Finanzunternehmens durch ein gefälschtes Video-Konferenzgespräch dazu gebracht, umgerechnet 25 Millionen US-Dollar zu überweisen. Die Angreifer hatten mehrere Kollegen des Mitarbeiters durch Deepfake-Avatare simuliert.
Wie man Deepfakes erkennt
Visuelle Artefakte in Video-Deepfakes
- Gesichtsränder: Unnatürliche Übergänge zwischen dem geklonten Gesicht und dem restlichen Kopf, besonders bei Bewegung
- Augen: Unnatürliches Blinzeln, starre oder fehlende Lichtreflexe in den Pupillen
- Haare: Feinstränge am Rand des Gesichts werden von KI-Systemen oft schlecht gerendert
- Beleuchtung: Inkonsistente Schatten zwischen Gesicht und Umgebung
- Lippensynchronisation: Lippenbewegungen und Sprache stimmen nicht exakt überein
Artefakte in Audio-Deepfakes
- Unnatürliche Pausen oder Atemgeräusche an falschen Stellen
- Gleichmäßige, zu "saubere" Klangqualität ohne Hintergrundgeräusche
- Metall-ähnlicher oder leicht roboterhafter Klang bei emotionalen Äußerungen
Technische Erkennungsmethoden
- Deepfake-Erkennungstools: Microsoft Video Authenticator, Sensity AI, Intel FakeCatcher
- Echtzeit-Verifizierung: Bei Videoanrufen unerwartete Aktionen anfordern, auf die KI-Systeme nicht in Echtzeit reagieren können
Schutzmaßnahmen für Unternehmen
- Verbales Codewort-System: Führungskräfte und Mitarbeiter vereinbaren ein nicht-öffentliches Codewort für ungewöhnliche Anfragen.
- Dual-Control-Prinzip bei Zahlungen: Keine Zahlung auf Basis eines einzigen Kommunikationskanals. Jede außergewöhnliche Überweisung muss durch einen zweiten, unabhängigen Kanal bestätigt werden.
- Awareness-Schulungen: Mitarbeiter müssen wissen, dass Deepfake-CEO-Fraud existiert und wie Angriffsszenarien ablaufen.
- Verifizierungsprotokoll für ungewöhnliche Anfragen: Klarer Prozess für außergewöhnliche Anfragen von Führungskräften.
- Beschränkung öffentlicher Audio- und Videoinhalte: Je weniger öffentliches Audiomaterial von Führungskräften verfügbar ist, desto schwieriger ist die Erstellung überzeugender Stimmklone.
"Die beste Verteidigung gegen Deepfake-Betrug ist nicht Technologie, sondern Prozess. Ein Vier-Augen-Prinzip bei Überweisungen schlägt jeden Deepfake-Detektor." – Europol Cybercrime Centre (EC3)
Häufige Fragen
Wie viel Audiomaterial wird benötigt, um eine Stimme zu klonen?
Moderne Sprachkloning-Dienste wie ElevenLabs benötigen bereits drei bis fünf Sekunden qualitatives Audiomaterial für eine grundlegende Stimmkopie. Öffentliche Interviews, Unternehmensvideos oder LinkedIn-Videos von Führungskräften liefern Angreifern ausreichend Material.
Kann ich einen Deepfake in Echtzeit erkennen?
Echtzeit-Deepfake-Erkennung ist technisch anspruchsvoll und fehleranfällig. Zuverlässiger sind strukturelle Verifizierungsmaßnahmen: unerwartete Aktionen anfordern, ein Codewort abfragen oder die Person über einen bekannten alternativen Kanal kontaktieren.
Welche Branchen sind besonders häufig Ziele von Deepfake-Angriffen?
Finanzdienstleistungen, Versicherungen und Unternehmen mit häufigen internationalen Überweisungen sind primäre Ziele. CEO-Fraud trifft statistisch am häufigsten mittelgroße Unternehmen mit weniger strikten Zahlungsprozessen als Großkonzerne.
Sind Versicherungen gegen Deepfake-Betrug verfügbar?
Cyberpolicen decken zunehmend auch Social-Engineering-Angriffe einschließlich CEO-Fraud ab. Die Deckung ist jedoch oft an Voraussetzungen geknüpft: Das Unternehmen muss Schutzmaßnahmen wie Dual-Control-Prinzipien und Mitarbeiterschulungen nachweisen.
Was sollte ein Mitarbeiter tun, der vermutet, einem Deepfake ausgesetzt worden zu sein?
Keine Transaktion durchführen und den Vorfall sofort der IT-Abteilung melden. Falls eine Überweisung bereits veranlasst wurde: sofort die Hausbank kontaktieren, um den Transfer zu stoppen, und Anzeige bei der Polizei erstatten.
