Deepfake Experiment Teil 1

Deep Fake lässt sich immer weniger erkennen. In einem Selbstexperiment spricht mein Avatar nun Japanisch. Auf Deep Fake folgt so Deep Fraud - immer mehr Menschen fallen darauf hinein und zahlen Geldbeträge an Cyberkriminelle.

Wenn der Chef plötzlich Japanisch spricht – wie Deepfakes zur neuen Waffe im Netz werden

Inspiriert von einer Reihe TIK TOK Videos habe ich kürzlich ein Experiment gewagt: Ich habe ein Video erstellt, in dem ich fließend Japanisch spreche – obwohl ich kein Wort Japanisch kann. Das gelang, ehrlich gesagt, einfacher als gedacht (aber natürlich nicht mit TIK TOK). Das Ergebnis kann sich sehen lassen – und zeigt, wie weit Deepfake-Technologie heute ist. Aber – urteile selbst…

Screenshot

Was Deepfakes sind – und warum sie relevant sind

„Deepfake“ bezeichnet den Einsatz von Deep Learning-Algorithmen, um Audio-, Bild- oder Videomaterial synthetisch zu verändern oder neu zu erzeugen. Die Europol IOCTA 2023 nennt Deepfakes ein „multiplying threat vector“ – also einen Verstärker bereits bekannter Betrugsformen wie CEO-Fraud oder Identitätsdiebstahl. Auch die ENISA Threat Landscape 2024 bestätigt: Deepfakes entwickeln sich zu einem ernstzunehmenden Risiko für Wirtschaft, Verwaltung und Gesellschaft, insbesondere in Kombination mit Social Engineering.

Wirtschaftliche Schäden durch KI-gestützten Betrug

Laut dem FBI Internet Crime Report 2024 beliefen sich die gemeldeten Schäden durch Internetkriminalität auf über 16 Milliarden US-Dollar, ein Anstieg von 33 % gegenüber dem Vorjahr. Deepfakes werden nicht separat ausgewiesen, sind aber als Methode in mehreren dokumentierten Betrugsmustern enthalten – etwa bei Business E-Mail Compromise und CEO Fraud. (Quelle: FBI IC3 Report 2024, ic3.gov)

Die Top 10 der Deepfake-Vorfälle 2024 & 25

In den letzten zwei Jahren sind mehrere Fälle dokumentiert worden, in denen Deepfakes zu erheblichen finanziellen oder reputativen Schäden geführt haben. Auf der positiven Seite gibt es auch immer Fälle, in denen der Schwindel auffliegt. Z.B. hat der Accenture CEO den Braten gerochen und richtig reagiert.

#DatumZiel / OpferArt des DeepfakesKurzbeschreibungQuellen
1Feb 2024Unternehmen in HongkongVideo-Deepfake (mehrere Personen)Täuschend echte Videokonferenz mit gefälschten Kollegen führte zu einer Überweisung von ca. 200 Mio HKD (~25 M USD) ☠️.The Guardian, CPO Magazine
2Mai 2024Arup (Engineering UK)Video + Audio Deepfake (CFO-Imitation)Täuschend echt gefälschtes CFO-Video führte zu einer Zahlung von rund 25 M USD auf Hongkong-Konten ☠️.Financial Times, CFO Dive
3Jul 2024Ferrari S.p.A.Deepfake-CEO (Voice + Video)Betrüger gaben sich per Videoanruf als CEO Benedetto Vigna aus; versuchten, eine Transaktion auszulösen – Versuch wurde erkannt ✅.Bloomberg, MIT Sloan Review
4Okt 2024Wiz (SaaS-Security, Israel/US)Voice-Clone (CEO-Stimme)Angreifer nutzten synthetische Stimme des CEOs in interner Phishing-Kampagne; Attacke wurde frühzeitig erkannt ✅.TechCrunch, Entrepreneur
5Apr 2025Unternehmen in SingapurVideo-Deepfake (CEO-Imitation)Betrüger nutzten gefälschtes CEO-Video, um eine Überweisung von ~500 000 USD zu veranlassen; Polizei verhinderte Zahlung ✅ .Channel News Asia, HRD Asia
6Mai 2025AccentureDeepfake-Videocall (CEO)Deepfake-Video des CEOs sollte Finanzfreigabe erzwingen; CFO erkannte Unstimmigkeiten, Angriff scheiterte ✅.Anvilogic Threat Report, Computing UK
7Apr 2024 / Apr 2025Pikesville High School (USA)Audio-Deepfake (Rufschädigung)Manipuliertes Tonband mit rassistischen Aussagen fälschlich dem Schulleiter zugeschrieben ☠️; Täter erhielt Haftstrafe.AP News, WTOP
8Okt 2024Politische Kampagnen (USA / EU)Deepfake-DesinformationGefälschte Videos und Interviews politischer Kandidaten verbreitet; Teil koordinierter Einflusskampagnen ☠️.The Verge
9Mai 2025Privatpersonen (Social Media)Celebrity-Deepfake (George Clooney)Betrüger nutzten KI-Videos des Schauspielers in Facebook-Chats; Opfer verlor rund 15 000 USD ☠️.Times of India, OECD.AI Incident Report
10Apr 2025Remote-Job-Interviews (global)Live-Deepfakes (Realtime Face-Swap)Nordkoreanische Gruppen nutzten Live-Deepfakes, um sich in Bewerbungen als westliche IT-Spezialisten auszugeben ☠️.DarkReading

Warum Deepfakes so schwer zu erkennen sind

Zahlreiche wissenschaftliche Untersuchungen zeigen, dass sowohl technische Systeme als auch Menschen bei der Erkennung täuschend echter Deepfakes deutlich an Grenzen stoßen.

1. Videokompression verschleiert Artefakte – Eine Studie von Guo et al. (2024, Elsevier / Neurocomputing) belegt, dass Erkennungsmodelle bei stark komprimierten Videos (z. B. in Zoom oder Teams) bis zu 40 Prozentpunkte ihrer Genauigkeit verlieren, weil entscheidende Artefakte entfernt werden.

2. Virtuelle Hintergründe verändern Bildkonsistenz – Forschende des Fraunhofer SIT / ATHENE (Süßmilch et al., 2023) zeigen in „Detection of Deepfakes Using Background-Matching“, dass Verfahren, die auf der Konsistenz zwischen Vorder- und Hintergrund basieren, bei realen oder KI-erzeugten Hintergrundveränderungen an Leistung verlieren. Eine Kombination aus Background-Matching und CNN-Analyse („semi-blind detection“) erhöht die Robustheit.

3. Echtzeit-Face-Swaps sind schwer identifizierbar – Forschende des Max-Planck-Instituts und Stanford University (Thies et al., 2023) zeigen, dass Live-Face-Swaps mit unter 200 ms Latenz technisch machbar sind. Passives Erkennen scheitert meist – nur aktive Verfahren wie Corneal-Reflex-Analysen oder Challenge-Response-Mechanismen sind zuverlässig.

4. Menschen erkennen synthetische Stimmen kaum – In einer kontrollierten Studie der University of British Columbia und UC Berkeley, veröffentlicht in Nature Scientific Reports (Barrington et al., 2025), identifizierten Proband:innen KI-erzeugte Stimmen nur in etwa 60 % der Fälle korrekt. Die Autor:innen schlussfolgern, dass selbst trainierte Zuhörer:innen systematisch überfordert sind, synthetische Stimmen sicher zu erkennen.

Deepfakes als Werkzeug der Desinformation

Berichte des EU DisinfoLab (2024) und des Stanford Internet Observatory (2024) dokumentieren koordinierte Kampagnen mit Deepfake-Videos politischer Persönlichkeiten. Ziel ist meist nicht die perfekte Täuschung, sondern die Erosion von Vertrauen in Bild- und Videoquellen.

Wohin sich die Entwicklung bewegt

Die technischen Trends deuten klar auf eine Zunahme echtzeitfähiger Deepfakes hin. Berichte von Group-IB (2024) zeigen, dass Angriffe auf Identifikationsprozesse („Know-Your-Customer“) bereits in großem Maßstab stattfinden. Parallel entstehen Gegenmaßnahmen wie Media Provenance Standards (C2PA-Initiative) und AI Forensics-Frameworks zur Rückverfolgung synthetischer Inhalte.

Handlungsempfehlungen für Unternehmen

1. Zweitkanal-Prinzip – Finanzfreigaben oder kritische Entscheidungen nie ausschließlich auf Basis von Video/Audio treffen.
2. Awareness-Training – Mitarbeitende für Deepfake-Risiken sensibilisieren.
3. Technische Prüfung – Einsatz von KI-gestützten Erkennungs-Tools und Provenance-Tags.
4. Krisen-Playbooks – Interne Kommunikations- und Reaktionsprozesse für Deepfake-Vorfälle festlegen.

Fazit

Mein Video-Experiment war harmlos – die Technologie dahinter ist es nicht. Die Forschung zeigt, dass Deepfakes in Live-Situationen kaum erkennbar, leicht zugänglich und zunehmend missbräuchlich eingesetzt werden. Vertrauen in digitale Kommunikation muss daher künftig technisch überprüfbar werden – nicht nur sozial vorausgesetzt.

Literaturverzeichnis

  • Barrington, L., Li, Z., Farid, H. (2025) People are poorly equipped to detect AI-powered voice clones. Nature Scientific Reports, 15(3), 94170. Verfügbar unter: https://www.nature.com/articles/s41598-025-94170-3
  • Zubair, M. and Hakak, S. (2025) ‘Exploring the Landscape of Compressed DeepFakes: Generation, Dataset and Detection’, Neurocomputing (Amsterdam), 619. Available at: https://doi.org/10.1016/j.neucom.2024.129116.
  • Stephanie Blümer, Martin Steinebach, Raphael Antonius Frick, Niklas Bunzel, „Detection of deepfakes using background-matching“  in Electronic Imaging,  2023,  pp 381–1 – 381-6,  https://doi.org/10.2352/EI.2023.35.4.MWSF-381
  • Thies, J., et al. (2023) Detection of Real-Time Deepfakes in Video Conferencing with Active Probing and Corneal Reflection. arXiv preprint arXiv:2210.14153. Verfügbar unter: https://arxiv.org/abs/2210.14153

Manuel Bohe

Founder & CEO
Manuel Bohé ist Gründer und Geschäftsführer der Concepture Gruppe. Außerdem ist er begeisterter Cyber Security Researcher und Tech-Enthusiast.

Jetzt weiterlesen!

Cybersicherheit

GPS-Spoofing in der Logistik: Unsichtbare Gefahr für Lieferketten

Ob im Navigationssystem moderner Fahrzeuge oder im Tracking-Chip auf der Frachtpalette – GPS (Global Positioning System) ist heute ein unverzichtbarer Bestandteil globaler Lieferketten und Mobilitätslösungen. Doch was passiert, wenn diese Technologie manipuliert wird? GPS-Spoofing ermöglicht es Angreifern, Positionsdaten gezielt zu fälschen – mit potenziell fatalen Folgen für Unternehmen, Sicherheit und Wirtschaftlichkeit.

Physical Security

Fahrzeugrückhaltesysteme richtig geplant: Sicherheit beginnt vor dem Zaun

Wenn es um den Schutz von Liegenschaften, Infrastrukturen oder öffentlichen Bereichen geht, denken viele zuerst an Zutrittskontrolle, Videotechnik oder Alarmanlagen. Doch eine zentrale Schwachstelle bleibt oft unbeachtet: die Zufahrt mit einem Fahrzeug – ob durch Unfall, Fahrlässigkeit oder Vorsatz.

Fill the Gap, Security Compliance

Die EU CER-Richtlinie erklärt – Was Unternehmen jetzt wissen müssen

Mehr Sicherheit für Europas kritische Infrastrukturen: Die neue EU-Richtlinie zur Resilienz kritischer Einrichtungen (CER) bringt klare Vorgaben – auch für Unternehmen in Deutschland. Aber wer ist betroffen und was muss jetzt getan werden? Wir geben einen Überblick.

Alternativ zum Formular können Sie uns auch eine E-Mail an info@concepture.de senden.