
Deepfake AI imitiert CZ von Binance auf beunruhigende Art und Weise
CZ, ehemaliger CEO von Binance, hat ein Deepfake-Video mit seiner eigenen Stimme nicht erkannt. Künstliche Intelligenz repliziert Gesichter und Töne mit gefährlicher Genauigkeit.
CZ, ehemaliger CEO von Binance, hat ein Deepfake-Video mit seiner eigenen Stimme nicht erkannt. Künstliche Intelligenz repliziert Gesichter und Töne mit gefährlicher Genauigkeit.
Erhalten Sie die neuesten Nachrichten, lernen Sie von Experten, entdecken Sie neue Tools und lassen Sie sich inspirieren - direkt in Ihrem Posteingang.
Kein Spam. Jederzeit abbestellen.
Der ehemalige Binance-CEO Changpeng "CZ" Zhao berichtete von einem erstaunlichen Erlebnis mit einem Video, das seine Stimme dank KI-Technologie perfekt imitierte.
Zhao verriet am Donnerstag in einem Posting, dass die Mandarin-Synchronisation in dem Video aufgrund der extremen Genauigkeit der Wiedergabe nicht von seiner echten Stimme zu unterscheiden war.
Das Video, in dem Zhao in einer Montage von Clips und Bildern, die mit künstlicher Intelligenz erstellt wurden, Chinesisch zu sprechen scheint, rief starke Bedenken hinsichtlich des unerlaubten Einsatzes von KI zur Nachahmung von Personen des öffentlichen Lebens hervor. CZ bezeichnete die Genauigkeit der Stimme und der Lippensynchronisation als "beunruhigend".
Die digitale Vervielfältigung von Führungskräften der Kryptoindustrie über generative KI-Tools ist auf dem Vormarsch, und dieser Fall ist ein klares Beispiel für eine böswillige Imitation.
Nach seinem Rücktritt als CEO von Binance im Jahr 2023 war Zhao weiterhin einflussreich in der Kryptowährungsindustrie und hatte zuvor die Öffentlichkeit vor den Risiken von Deepfakes gewarnt.
Im Monat Oktober 2024 hatte Zhao eine spezifische Warnung herausgegeben: Trauen Sie keinen Videos, die zu Kryptowährungstransfers auffordern, aufgrund der Verbreitung von manipulierten Inhalten, die ihn porträtieren.
Die Deepfakes stellen zunehmend schwerwiegende operative Risiken für den Krypto-Sektor dar
Zhaos jüngste Erfahrung zeigt, wie sich die Imitationsmethoden von einfachen Text- oder statischen Bildbetrügereien zu ausgeklügelten audiovisuellen Simulationen entwickeln.
Patrick Hillmann, ehemaliger Chief Communications Officer von Binance, erzählte im Jahr 2023, dass einige Betrüger ein Deepfake-Video erstellt hatten, um sich während eines Zoom-Meetings mit Projektvertretern als er auszugeben.
Das Video wurde durch die Zusammenstellung jahrelanger öffentlicher Interviews und Online-Inhalte von Paganini erstellt, wodurch das fiktive Treffen so glaubwürdig wurde wie ein echter offizieller Anruf von Binance.
Heutzutage ermöglichen fortschrittliche Technologien zum Klonen von Stimmen, eine Person so gut zu imitieren, dass nicht einmal das Original die Fälschung erkennen kann. Dies stellt eine Gefahr dar, die weit über den Identitätsdiebstahl in sozialen Netzwerken hinausgeht.
A Million Dollar Scam zeigt die konkreten Risiken von Deepfakes
Ein Vorfall im Februar verdeutlicht die schwerwiegenden finanziellen Risiken von Deepfakes: Mitarbeiter von Arup in Hongkong wurden bei einem Videoanruf über Microsoft Teams um die Überweisung von rund 25 Millionen Dollar betrogen.
Nach Angaben der South China Morning Post handelte es sich bei allen Teilnehmern der Telefonkonferenz um KI-Simulationen, die die Stimme und das Aussehen des Finanzchefs des Vereinigten Königreichs und anderer Kollegen nachahmten.
Stimmenklonen: Technologie zunehmend zugänglich
Die Technologie, die hinter dem realistischen Stimmenklonen steht, ist zunehmend zugänglich und erfordert nur sehr wenige Sprachdaten, um zu funktionieren.
Dienste wie ElevenLabs ermöglichen es den Nutzern, aus weniger als 60 Sekunden Aufnahmezeit realistische Stimmklone zu erstellen.
Nach Angaben eines britischen Finanzinstituts sind über 25 % der Erwachsenen in Großbritannien allein im letzten Jahr auf Betrügereien mit geklonten Stimmen hereingefallen.
Berichte von CyFlare zeigen, dass APIs zum Klonen von Stimmen auf Darknet-Marktplätzen für nur $5 erworben werden können. Kommerzielle Modelle sind in der Regel mit Wasserzeichen versehen und bedürfen der Zustimmung, während die quelloffenen oder illegalen Modelle keinen Schutz bieten.
EU fordert explizite Kennzeichnungen für Deepfakes, aber die Gesetzgebung wird erst 2026 kommen
Die EU-Verordnung über künstliche Intelligenz, die im März 2024 verabschiedet wurde, schreibt vor, dass alle öffentlich sichtbaren Deepfake-Inhalte klar gekennzeichnet werden müssen.
Die vollständige Umsetzung der Verordnung ist jedoch erst für 2026 geplant, was eine erhebliche Zeitspanne der Verwundbarkeit lässt.
In der Zwischenzeit beginnen Hardware-Hersteller damit, Sensorsysteme in Verbrauchergeräte einzubauen.
Auf dem Mobile World Congress 2025 in Barcelona wurden Tools vorgestellt, die in der Lage sind, in Echtzeit Audio- und Videomanipulationen zu erkennen, die in die Geräte selbst eingebettet sind - ein möglicher Schritt hin zu autonomen Lösungen für die Echtheitsprüfung, wenn auch noch weit von einer kommerziellen Verbreitung entfernt.
Anmeldung für Spaziocrypto®
Kein Spam. Jederzeit abbestellen.
Weiter lesen
Verkauf von Krypto-Nutzerdaten im Dark Web: hohes Risiko
Sensible Daten von Ledger-, Gemini- und Robinhood-Nutzern werden im Dark Web zum Verkauf angeboten. Die Sorge um die Sicherheit von Kryptowährungen wächst.
Neuer Trend: GHIBLI Token an verschiedenen Börsen notiert
Der GHIBLI-Token, inspiriert von Studio Ghibli, gewinnt an Popularität mit Listings auf Gate.io, BingX und anderen Plattformen. Wachstum von 20% in 24 Stunden.
Chatbot Grok Startet Token mit Bankr, Sammelt $270K
Chatbot Grok lanciert seinen Token über Bankr und sammelt 270.000 $. Ein wichtiger Schritt bei der Integration von KI und Blockchain.
DeepSeek Krypto-Betrug: China Schlägt Alarm
Die chinesischen Behörden warnen vor einer kriminellen Gruppe, die den Namen DeepSeek verwendet, um Anleger mit gefälschten Plattformen und infizierten Apps zu betrügen.