Logo Concepture

AI Voice Cloning – wie Sie sich vor Betrügern schützen können

Sich als jemand anderes auszugeben ist einfacher als man denkt. Voice Cloning Tools wie Respeeacher oder Murf imitieren den Klang menschlicher Stimmen mit nur wenigen Sekunden Originalmaterials. Betrüger nutzen diese AI-Tools, um an Geld zu kommen.

Stellen Sie sich vor: Sie arbeiten in der Buchhaltung eines großen Konzerns. Ihr Vorgesetzter ruft Sie an und bittet Sie, kurzfristig Geld an ein bestimmtes Konto zu überweisen oder ein geliebter Mensch steckt in Schwierigkeiten und benötigt Geld für einen Notfall wie einen Autounfall oder eine Krankenhausrechnung. Würden Sie die Überweisung tätigen oder das Geld zur Verfügung stellen? Wir hoffen nicht direkt, denn in Wirklichkeit könnte es sich bei der Person am Telefon um einen Fremden handeln, der eine AI Voice Cloning Software verwendet. 

Was ist AI Voice Cloning?

Die AI Voice Cloning Technologie nutzt Deep Learning Algorithmen, um die Stimme einer Person zu analysieren und zu rekonstruieren. Während hierfür ehemals große Datenmengen von Sprachaufnahmen benötigt wurden, um das Sprachmuster der Person zu erkennen und eine synthetische Stimme zu erstellen, die der natürlichen Stimme der Person ähnlich ist, benötigt man heute weniger als eine Minute Sprachaufnahme.

Wie funktioniert AI Voice Cloning?

Die Deepfake-Technik, analysiert alles, was die Stimme einer Person einzigartig macht, einschließlich Alter, Geschlecht und Akzent. Sie kann dann die Tonhöhe, das Timbre und die einzelnen Klänge der Stimme nachbilden, um einen ähnlichen Gesamteffekt zu erzielen.

Alles, was Sie brauchen, ist eine kurze Stimmprobe der menschlichen Stimme, wie etwa Beiträge auf YouTube, TikTok, Instagram oder Facebook-Videos und die KI lernt sie sofort. Anschließend können Sie ein beliebiges Skript schreiben, das die KI dann mit der nachgebildeten Stimme vorliest. Nun denken Sie vielleicht: “Meine Stimme ist nicht öffentlich im Internet zu finden, nun bin ich sicher!“ Ganz so einfach ist es leider nicht mehr. Ein fingierter Anruf bei ihnen (der durch den Angreifer aufgezeichnet wird) kann schon reichen, um genug Stimmmaterial zu erbeuten.

Gefahren durch AI Voice Cloning

Natürlich ist auch diese Technologie nicht einseitig zu bewerten und bietet insbesondere Menschen mit Schwierigkeiten zu sprechen eine synthetische Stimme, um ihre Gedanken auszudrücken. Allerdings ist das Missbrauchspotenzial riesig und reicht von reputationsgefährdenden Falschaussagen über raffinierte Betrügereien mit Familiennotfällen bis zu CEO-Frauds. 

Diese Art von Angriffen scheitert auch nicht am Geld. Entsprechende Services kosten nur wenige Dollar im Monat und können oft kostenfrei getestet werden. Auch gibt es immer mehr quelloffene Projekte in diesem Bereich, die von Angreifer kostenfrei genutzt werden können.

Das Klonen von Stimmen ermöglicht es den Benutzern, die einzigartigen Stimmmuster einer Person nachzubilden. Damit wird unsere Stimme bald ebenso schützenswert wie unsere Fingerabdrücke oder DNA. Daraus ergeben sich natürlich auch nachfolgende rechtliche Fragestellungen.

3 Möglichkeiten sich vor Voice Cloning Betrügern zu schützen

Die Entwicklungen im Bereich KI, sowie Voice cloning, schreiten aktuell sehr schnell voran. Sprachmodelle werden immer besser, benötigte Menge an Stimmvorlagen nehmen immer weiter ab. Es gibt verschiedene Möglichkeiten, sich vor den Gefahren durch AI Voice Cloning zu schützen:

Awareness: Low-Tech-Methoden zur Bekämpfung eines High-Tech-Problems.

Es gibt keine technische Möglichkeit, sich gegen solche Angriffe zu wehren, einzig das Schaffen von Bewusstsein für solche Angriffe kann helfen, nicht selbst zum Opfer zu werden.

Hier ein paar praktische Tipps, die man befolgen kann um einen verdächtigen Anruf z.B. vom vermeintlichen Chef zu erkennen:

  • Wird versucht, Druck aufzubauen – z.B. Zeit/Termindruck?
  • Ist die Art zu Reden unüblich – z.B. sind Begrüßungsformeln anders als gewohnt?
  • Sind die Antwortsätze kürzer als üblich oder passen sie nicht genau zu ihrer Frage?

Falls einer oder mehrere dieser Punkte zutreffen, ist es gut möglich, dass es sich um einen fingierten Anruf handelt.

Doublecheck: Überprüfen Sie die Identität des Anrufers

Beenden Sie das Gespräch und rufen Sie die Gesprächsperson zurück. Wenn der Angreifer eine gefälschte Telefonnummer benutzt hat, werden Sie nicht beim Angreifer, sondern bei der echten Person herauskommen und damit ist der Angriff abgewehrt!

Minimalism!

Seien Sie sich bewusst, dass das Öffentlichmachen Ihrer Stimme gegen Sie verwendet werden kann und es potenziellen Angreifern einfacher macht.

Fazit

AI Voice Cloning hat ein hohes Betrugspotenzial. Dies lässt sich insbesondere auf zwei Faktoren zurückführen: 

  1. einfache Zugänglichkeit:
    Potenzielle Täter benötigen kaum technisches Wissen um AI Voice Cloning für Ihre Zwecke zu nutzen
  2. günstiger Preis:
    potenzielle Anfreifer müssen für die Nutzung der Voice Cloning Technik nicht tief oder gar nicht in die Tasche greifen. 

Diese zwei Faktoren führen zu sehr niedrigen Barrieren in der Nutzung. Es gibt zwar erste Erkennungstechnologien für geklonten Stimmen, aber der wohl effektivste Schutz bleibt: Security Awareness. Und zwar sowohl im privaten als auch im unternehmerischen Umfeld.

Miriam Strauß

Marketing & Kommunikation
Miriam Strauß beschäftigt sich täglich mit den neuesten Entwicklungen im Bereich KI und Marketing und ist bei Concepture für die Kommunikation zuständig.

Jetzt weiterlesen!

Cybersicherheit

Datenaustausch und Zusammenarbeit: Schlüssel zur Stärkung der Cybersicherheit in der Lieferkette

Die Sicherheit von Lieferketten ist entscheidend für den Schutz vor Cyberbedrohungen. Angesichts der globalen Vernetzung von Unternehmen und ihrer Zulieferer ist eine durchgängige Cybersicherheitsstrategie essentiell. Ein Schlüsselelement hierbei ist der verstärkte Datenaustausch und die Kooperation zwischen allen Beteiligten der Lieferkette, um gemeinsam Risiken effektiv zu minimieren und die Resilienz gegenüber Cyberangriffen zu stärken.

Sicherheitsberatung

Perimeter im Check: Ist Ihre Grundstücksgrenze ausreichend geschützt?

Viele Unternehmen verlassen sich auf imposante Perimeterabsicherungen an ihren Grundstücksgrenzen, die durch Zaunanlagen mit Stachel- oder NATO-Draht potenzielle Täter aufhalten und abschrecken sollen. Die Frage ist jedoch, ob diese Maßnahmen wirklich ausreichen.

Managementberatung

Die Rolle der Business Impact Analysis im Business Continuity Management

In einer Welt voller disruptiver Bedrohungen ist es entscheidend, auf Betriebsunterbrechungen vorbereitet zu sein. Erfahren Sie, wie die Business Impact Analysis (BIA) als Herzstück des Business Continuity Managements (BCM) Unternehmen hilft, Risiken zu identifizieren und deren potenzielle Auswirkungen zu bewerten.

Durch Absenden des Kontaktformulars stimmen Sie unseren Datenschutzbestimmungen zu. Ihre angegebenen Daten werden ausschließlich zu Beratungszwecken gespeichert und nicht an Dritte weitergegeben.

Alternativ zum Formular können Sie uns auch eine E-Mail an info@concepture.de senden.