KI-Deepfake Täuscht Binance-Chef CZ
  • Home
  • KI
  • Deepfake AI imitiert CZ von Binance auf beunruhigende Art und Weise
Von Hamza Ahmed Profilbild Hamza Ahmed
5 min read

Deepfake AI imitiert CZ von Binance auf beunruhigende Art und Weise

CZ, ehemaliger CEO von Binance, hat ein Deepfake-Video mit seiner eigenen Stimme nicht erkannt. Künstliche Intelligenz repliziert Gesichter und Töne mit gefährlicher Genauigkeit.

Der ehemalige Binance-CEO Changpeng "CZ" Zhao berichtete von einem erstaunlichen Erlebnis mit einem Video, das seine Stimme dank KI-Technologie perfekt imitierte.

Zhao verriet am Donnerstag in einem Posting, dass die Mandarin-Synchronisation in dem Video aufgrund der extremen Genauigkeit der Wiedergabe nicht von seiner echten Stimme zu unterscheiden war.

Das Video, in dem Zhao in einer Montage von Clips und Bildern, die mit künstlicher Intelligenz erstellt wurden, Chinesisch zu sprechen scheint, rief starke Bedenken hinsichtlich des unerlaubten Einsatzes von KI zur Nachahmung von Personen des öffentlichen Lebens hervor. CZ bezeichnete die Genauigkeit der Stimme und der Lippensynchronisation als "beunruhigend".

0:00
/0:15

Die digitale Vervielfältigung von Führungskräften der Kryptoindustrie über generative KI-Tools ist auf dem Vormarsch, und dieser Fall ist ein klares Beispiel für eine böswillige Imitation.
Nach seinem Rücktritt als CEO von Binance im Jahr 2023 war Zhao weiterhin einflussreich in der Kryptowährungsindustrie und hatte zuvor die Öffentlichkeit vor den Risiken von Deepfakes gewarnt.

Im Monat Oktober 2024 hatte Zhao eine spezifische Warnung herausgegeben: Trauen Sie keinen Videos, die zu Kryptowährungstransfers auffordern, aufgrund der Verbreitung von manipulierten Inhalten, die ihn porträtieren.

Die Deepfakes stellen zunehmend schwerwiegende operative Risiken für den Krypto-Sektor dar

Zhaos jüngste Erfahrung zeigt, wie sich die Imitationsmethoden von einfachen Text- oder statischen Bildbetrügereien zu ausgeklügelten audiovisuellen Simulationen entwickeln.

Patrick Hillmann, ehemaliger Chief Communications Officer von Binance, erzählte im Jahr 2023, dass einige Betrüger ein Deepfake-Video erstellt hatten, um sich während eines Zoom-Meetings mit Projektvertretern als er auszugeben.

Betrüger benutzten ein gefälschtes KI-Hologramm des Binance-Managers, um Krypto-Projekte zu betrügen
Betrüger benutzten ein gefälschtes KI-Hologramm des Binance-Kommunikationschefs für betrügerische Aktivitäten.

Das Video wurde durch die Zusammenstellung jahrelanger öffentlicher Interviews und Online-Inhalte von Paganini erstellt, wodurch das fiktive Treffen so glaubwürdig wurde wie ein echter offizieller Anruf von Binance.

Heutzutage ermöglichen fortschrittliche Technologien zum Klonen von Stimmen, eine Person so gut zu imitieren, dass nicht einmal das Original die Fälschung erkennen kann. Dies stellt eine Gefahr dar, die weit über den Identitätsdiebstahl in sozialen Netzwerken hinausgeht.

A Million Dollar Scam zeigt die konkreten Risiken von Deepfakes

Ein Vorfall im Februar verdeutlicht die schwerwiegenden finanziellen Risiken von Deepfakes: Mitarbeiter von Arup in Hongkong wurden bei einem Videoanruf über Microsoft Teams um die Überweisung von rund 25 Millionen Dollar betrogen.

Konzern verlor 25 Mio. $ bei Betrug mit gefälschter Videokonferenz in Hongkong
Engineering-Konzern mit Sitz in Großbritannien als Ziel eines Betrugs identifiziert, bei dem ein digital geklonter CFO die Mitarbeiter austrickste

Nach Angaben der South China Morning Post handelte es sich bei allen Teilnehmern der Telefonkonferenz um KI-Simulationen, die die Stimme und das Aussehen des Finanzchefs des Vereinigten Königreichs und anderer Kollegen nachahmten.

Stimmenklonen: Technologie zunehmend zugänglich

Die Technologie, die hinter dem realistischen Stimmenklonen steht, ist zunehmend zugänglich und erfordert nur sehr wenige Sprachdaten, um zu funktionieren.

Dienste wie ElevenLabs ermöglichen es den Nutzern, aus weniger als 60 Sekunden Aufnahmezeit realistische Stimmklone zu erstellen.

Nach Angaben eines britischen Finanzinstituts sind über 25 % der Erwachsenen in Großbritannien allein im letzten Jahr auf Betrügereien mit geklonten Stimmen hereingefallen.

AI-gesteuerte Deepfake-Cyberattacken: Eine wachsende Bedrohung für 2025 und darüber hinaus
AI-gesteuerte Cyberattacken nehmen im Jahr 2025 zu. Erfahren Sie, wie CyFlare das Gesundheitswesen und die Finanzbranche mit fortschrittlichen Lösungen schützt.

Berichte von CyFlare zeigen, dass APIs zum Klonen von Stimmen auf Darknet-Marktplätzen für nur $5 erworben werden können. Kommerzielle Modelle sind in der Regel mit Wasserzeichen versehen und bedürfen der Zustimmung, während die quelloffenen oder illegalen Modelle keinen Schutz bieten.

EU fordert explizite Kennzeichnungen für Deepfakes, aber die Gesetzgebung wird erst 2026 kommen

Die EU-Verordnung über künstliche Intelligenz, die im März 2024 verabschiedet wurde, schreibt vor, dass alle öffentlich sichtbaren Deepfake-Inhalte klar gekennzeichnet werden müssen.
Die vollständige Umsetzung der Verordnung ist jedoch erst für 2026 geplant, was eine erhebliche Zeitspanne der Verwundbarkeit lässt.

Artikel 50: Transparenzverpflichtungen für Anbieter und Betreiber bestimmter KI-Systeme | EU-Gesetz über künstliche Intelligenz

In der Zwischenzeit beginnen Hardware-Hersteller damit, Sensorsysteme in Verbrauchergeräte einzubauen.
Auf dem Mobile World Congress 2025 in Barcelona wurden Tools vorgestellt, die in der Lage sind, in Echtzeit Audio- und Videomanipulationen zu erkennen, die in die Geräte selbst eingebettet sind - ein möglicher Schritt hin zu autonomen Lösungen für die Echtheitsprüfung, wenn auch noch weit von einer kommerziellen Verbreitung entfernt.

Von Hamza Ahmed Profilbild Hamza Ahmed
Aktualisiert am
KI Krypto Betrug
Consent Preferences