Sich als jemand anderes auszugeben ist einfacher als man denkt. Voice Cloning Tools wie Respeeacher oder Murf imitieren den Klang menschlicher Stimmen mit nur wenigen Sekunden Originalmaterials. Betrüger nutzen diese AI-Tools, um an Geld zu kommen.
Stellen Sie sich vor: Sie arbeiten in der Buchhaltung eines großen Konzerns. Ihr Vorgesetzter ruft Sie an und bittet Sie, kurzfristig Geld an ein bestimmtes Konto zu überweisen oder ein geliebter Mensch steckt in Schwierigkeiten und benötigt Geld für einen Notfall wie einen Autounfall oder eine Krankenhausrechnung. Würden Sie die Überweisung tätigen oder das Geld zur Verfügung stellen? Wir hoffen nicht direkt, denn in Wirklichkeit könnte es sich bei der Person am Telefon um einen Fremden handeln, der eine AI Voice Cloning Software verwendet.
Was ist AI Voice Cloning?
Die AI Voice Cloning Technologie nutzt Deep Learning Algorithmen, um die Stimme einer Person zu analysieren und zu rekonstruieren. Während hierfür ehemals große Datenmengen von Sprachaufnahmen benötigt wurden, um das Sprachmuster der Person zu erkennen und eine synthetische Stimme zu erstellen, die der natürlichen Stimme der Person ähnlich ist, benötigt man heute weniger als eine Minute Sprachaufnahme.
Wie funktioniert AI Voice Cloning?
Die Deepfake-Technik, analysiert alles, was die Stimme einer Person einzigartig macht, einschließlich Alter, Geschlecht und Akzent. Sie kann dann die Tonhöhe, das Timbre und die einzelnen Klänge der Stimme nachbilden, um einen ähnlichen Gesamteffekt zu erzielen.
Alles, was Sie brauchen, ist eine kurze Stimmprobe der menschlichen Stimme, wie etwa Beiträge auf YouTube, TikTok, Instagram oder Facebook-Videos und die KI lernt sie sofort. Anschließend können Sie ein beliebiges Skript schreiben, das die KI dann mit der nachgebildeten Stimme vorliest. Nun denken Sie vielleicht: “Meine Stimme ist nicht öffentlich im Internet zu finden, nun bin ich sicher!“ Ganz so einfach ist es leider nicht mehr. Ein fingierter Anruf bei ihnen (der durch den Angreifer aufgezeichnet wird) kann schon reichen, um genug Stimmmaterial zu erbeuten.
Gefahren durch AI Voice Cloning
Natürlich ist auch diese Technologie nicht einseitig zu bewerten und bietet insbesondere Menschen mit Schwierigkeiten zu sprechen eine synthetische Stimme, um ihre Gedanken auszudrücken. Allerdings ist das Missbrauchspotenzial riesig und reicht von reputationsgefährdenden Falschaussagen über raffinierte Betrügereien mit Familiennotfällen bis zu CEO-Frauds.
Diese Art von Angriffen scheitert auch nicht am Geld. Entsprechende Services kosten nur wenige Dollar im Monat und können oft kostenfrei getestet werden. Auch gibt es immer mehr quelloffene Projekte in diesem Bereich, die von Angreifer kostenfrei genutzt werden können.
Das Klonen von Stimmen ermöglicht es den Benutzern, die einzigartigen Stimmmuster einer Person nachzubilden. Damit wird unsere Stimme bald ebenso schützenswert wie unsere Fingerabdrücke oder DNA. Daraus ergeben sich natürlich auch nachfolgende rechtliche Fragestellungen.
3 Möglichkeiten sich vor Voice Cloning Betrügern zu schützen
Die Entwicklungen im Bereich KI, sowie Voice cloning, schreiten aktuell sehr schnell voran. Sprachmodelle werden immer besser, benötigte Menge an Stimmvorlagen nehmen immer weiter ab. Es gibt verschiedene Möglichkeiten, sich vor den Gefahren durch AI Voice Cloning zu schützen: