Wenn der Chef plötzlich Japanisch spricht – wie Deepfakes zur neuen Waffe im Netz werden
Inspiriert von einer Reihe TIK TOK Videos habe ich kürzlich ein Experiment gewagt: Ich habe ein Video erstellt, in dem ich fließend Japanisch spreche – obwohl ich kein Wort Japanisch kann. Das gelang, ehrlich gesagt, einfacher als gedacht (aber natürlich nicht mit TIK TOK). Das Ergebnis kann sich sehen lassen – und zeigt, wie weit Deepfake-Technologie heute ist. Aber – urteile selbst…

Was Deepfakes sind – und warum sie relevant sind
„Deepfake“ bezeichnet den Einsatz von Deep Learning-Algorithmen, um Audio-, Bild- oder Videomaterial synthetisch zu verändern oder neu zu erzeugen. Die Europol IOCTA 2023 nennt Deepfakes ein „multiplying threat vector“ – also einen Verstärker bereits bekannter Betrugsformen wie CEO-Fraud oder Identitätsdiebstahl. Auch die ENISA Threat Landscape 2024 bestätigt: Deepfakes entwickeln sich zu einem ernstzunehmenden Risiko für Wirtschaft, Verwaltung und Gesellschaft, insbesondere in Kombination mit Social Engineering.
Wirtschaftliche Schäden durch KI-gestützten Betrug
Laut dem FBI Internet Crime Report 2024 beliefen sich die gemeldeten Schäden durch Internetkriminalität auf über 16 Milliarden US-Dollar, ein Anstieg von 33 % gegenüber dem Vorjahr. Deepfakes werden nicht separat ausgewiesen, sind aber als Methode in mehreren dokumentierten Betrugsmustern enthalten – etwa bei Business E-Mail Compromise und CEO Fraud. (Quelle: FBI IC3 Report 2024, ic3.gov)
Die Top 10 der Deepfake-Vorfälle 2024 & 25
In den letzten zwei Jahren sind mehrere Fälle dokumentiert worden, in denen Deepfakes zu erheblichen finanziellen oder reputativen Schäden geführt haben. Auf der positiven Seite gibt es auch immer Fälle, in denen der Schwindel auffliegt. Z.B. hat der Accenture CEO den Braten gerochen und richtig reagiert.
| # | Datum | Ziel / Opfer | Art des Deepfakes | Kurzbeschreibung | Quellen |
|---|---|---|---|---|---|
| 1 | Feb 2024 | Unternehmen in Hongkong | Video-Deepfake (mehrere Personen) | Täuschend echte Videokonferenz mit gefälschten Kollegen führte zu einer Überweisung von ca. 200 Mio HKD (~25 M USD) ☠️. | The Guardian, CPO Magazine |
| 2 | Mai 2024 | Arup (Engineering UK) | Video + Audio Deepfake (CFO-Imitation) | Täuschend echt gefälschtes CFO-Video führte zu einer Zahlung von rund 25 M USD auf Hongkong-Konten ☠️. | Financial Times, CFO Dive |
| 3 | Jul 2024 | Ferrari S.p.A. | Deepfake-CEO (Voice + Video) | Betrüger gaben sich per Videoanruf als CEO Benedetto Vigna aus; versuchten, eine Transaktion auszulösen – Versuch wurde erkannt ✅. | Bloomberg, MIT Sloan Review |
| 4 | Okt 2024 | Wiz (SaaS-Security, Israel/US) | Voice-Clone (CEO-Stimme) | Angreifer nutzten synthetische Stimme des CEOs in interner Phishing-Kampagne; Attacke wurde frühzeitig erkannt ✅. | TechCrunch, Entrepreneur |
| 5 | Apr 2025 | Unternehmen in Singapur | Video-Deepfake (CEO-Imitation) | Betrüger nutzten gefälschtes CEO-Video, um eine Überweisung von ~500 000 USD zu veranlassen; Polizei verhinderte Zahlung ✅ . | Channel News Asia, HRD Asia |
| 6 | Mai 2025 | Accenture | Deepfake-Videocall (CEO) | Deepfake-Video des CEOs sollte Finanzfreigabe erzwingen; CFO erkannte Unstimmigkeiten, Angriff scheiterte ✅. | Anvilogic Threat Report, Computing UK |
| 7 | Apr 2024 / Apr 2025 | Pikesville High School (USA) | Audio-Deepfake (Rufschädigung) | Manipuliertes Tonband mit rassistischen Aussagen fälschlich dem Schulleiter zugeschrieben ☠️; Täter erhielt Haftstrafe. | AP News, WTOP |
| 8 | Okt 2024 | Politische Kampagnen (USA / EU) | Deepfake-Desinformation | Gefälschte Videos und Interviews politischer Kandidaten verbreitet; Teil koordinierter Einflusskampagnen ☠️. | The Verge |
| 9 | Mai 2025 | Privatpersonen (Social Media) | Celebrity-Deepfake (George Clooney) | Betrüger nutzten KI-Videos des Schauspielers in Facebook-Chats; Opfer verlor rund 15 000 USD ☠️. | Times of India, OECD.AI Incident Report |
| 10 | Apr 2025 | Remote-Job-Interviews (global) | Live-Deepfakes (Realtime Face-Swap) | Nordkoreanische Gruppen nutzten Live-Deepfakes, um sich in Bewerbungen als westliche IT-Spezialisten auszugeben ☠️. | DarkReading |
Warum Deepfakes so schwer zu erkennen sind
Zahlreiche wissenschaftliche Untersuchungen zeigen, dass sowohl technische Systeme als auch Menschen bei der Erkennung täuschend echter Deepfakes deutlich an Grenzen stoßen.
1. Videokompression verschleiert Artefakte – Eine Studie von Guo et al. (2024, Elsevier / Neurocomputing) belegt, dass Erkennungsmodelle bei stark komprimierten Videos (z. B. in Zoom oder Teams) bis zu 40 Prozentpunkte ihrer Genauigkeit verlieren, weil entscheidende Artefakte entfernt werden.
2. Virtuelle Hintergründe verändern Bildkonsistenz – Forschende des Fraunhofer SIT / ATHENE (Süßmilch et al., 2023) zeigen in „Detection of Deepfakes Using Background-Matching“, dass Verfahren, die auf der Konsistenz zwischen Vorder- und Hintergrund basieren, bei realen oder KI-erzeugten Hintergrundveränderungen an Leistung verlieren. Eine Kombination aus Background-Matching und CNN-Analyse („semi-blind detection“) erhöht die Robustheit.
3. Echtzeit-Face-Swaps sind schwer identifizierbar – Forschende des Max-Planck-Instituts und Stanford University (Thies et al., 2023) zeigen, dass Live-Face-Swaps mit unter 200 ms Latenz technisch machbar sind. Passives Erkennen scheitert meist – nur aktive Verfahren wie Corneal-Reflex-Analysen oder Challenge-Response-Mechanismen sind zuverlässig.
4. Menschen erkennen synthetische Stimmen kaum – In einer kontrollierten Studie der University of British Columbia und UC Berkeley, veröffentlicht in Nature Scientific Reports (Barrington et al., 2025), identifizierten Proband:innen KI-erzeugte Stimmen nur in etwa 60 % der Fälle korrekt. Die Autor:innen schlussfolgern, dass selbst trainierte Zuhörer:innen systematisch überfordert sind, synthetische Stimmen sicher zu erkennen.
Deepfakes als Werkzeug der Desinformation
Berichte des EU DisinfoLab (2024) und des Stanford Internet Observatory (2024) dokumentieren koordinierte Kampagnen mit Deepfake-Videos politischer Persönlichkeiten. Ziel ist meist nicht die perfekte Täuschung, sondern die Erosion von Vertrauen in Bild- und Videoquellen.
Wohin sich die Entwicklung bewegt
Die technischen Trends deuten klar auf eine Zunahme echtzeitfähiger Deepfakes hin. Berichte von Group-IB (2024) zeigen, dass Angriffe auf Identifikationsprozesse („Know-Your-Customer“) bereits in großem Maßstab stattfinden. Parallel entstehen Gegenmaßnahmen wie Media Provenance Standards (C2PA-Initiative) und AI Forensics-Frameworks zur Rückverfolgung synthetischer Inhalte.
Handlungsempfehlungen für Unternehmen
1. Zweitkanal-Prinzip – Finanzfreigaben oder kritische Entscheidungen nie ausschließlich auf Basis von Video/Audio treffen.
2. Awareness-Training – Mitarbeitende für Deepfake-Risiken sensibilisieren.
3. Technische Prüfung – Einsatz von KI-gestützten Erkennungs-Tools und Provenance-Tags.
4. Krisen-Playbooks – Interne Kommunikations- und Reaktionsprozesse für Deepfake-Vorfälle festlegen.
Fazit
Mein Video-Experiment war harmlos – die Technologie dahinter ist es nicht. Die Forschung zeigt, dass Deepfakes in Live-Situationen kaum erkennbar, leicht zugänglich und zunehmend missbräuchlich eingesetzt werden. Vertrauen in digitale Kommunikation muss daher künftig technisch überprüfbar werden – nicht nur sozial vorausgesetzt.
Literaturverzeichnis
- Barrington, L., Li, Z., Farid, H. (2025) People are poorly equipped to detect AI-powered voice clones. Nature Scientific Reports, 15(3), 94170. Verfügbar unter: https://www.nature.com/articles/s41598-025-94170-3
- Zubair, M. and Hakak, S. (2025) ‘Exploring the Landscape of Compressed DeepFakes: Generation, Dataset and Detection’, Neurocomputing (Amsterdam), 619. Available at: https://doi.org/10.1016/j.neucom.2024.129116.
- Stephanie Blümer, Martin Steinebach, Raphael Antonius Frick, Niklas Bunzel, „Detection of deepfakes using background-matching“ in Electronic Imaging, 2023, pp 381–1 – 381-6, https://doi.org/10.2352/EI.2023.35.4.MWSF-381
- Thies, J., et al. (2023) Detection of Real-Time Deepfakes in Video Conferencing with Active Probing and Corneal Reflection. arXiv preprint arXiv:2210.14153. Verfügbar unter: https://arxiv.org/abs/2210.14153




