Laut Bitget Research werden die Krypto-Verluste aufgrund von Deep Fakes und Scams im Jahr 2024 mehr als 25 Milliarden US-Dollar erreichen – mehr als das Doppelte der Verluste des letzten Jahres.

Die Kryptobörse stellte in einem Bericht vom 27. Juni entsprechend einen Anstieg der Anzahl von Deep Fakes weltweit um 245 % im Jahr 2024 fest und stützte sich dabei auf frühere Forschungsdaten von Sumsub.

Bitget fand heraus, dass in China, Deutschland, der Ukraine, den Vereinigten Staaten, Vietnam und dem Vereinigten Königreich im ersten Quartal 2024 die meisten Betrugsfälle per Deep Fakes aufgedeckt wurden, während die Kryptoindustrie in diesem Kontext einen Anstieg von 217 % im Vergleich zum ersten Quartal 2023 verzeichnete.

Prognostizierte Verluste in der Kryptobranche durch Deep Fakes im Jahr 2024. Quelle: Bitget Research

Bitget sagte, dass der Anstieg der Deep Fakes zu 6,3 Milliarden US-Dollar an Krypto-Verlusten im ersten Quartal führte. Sie fügte hinzu, dass die Verluste bis 2025 sogar auf 10 Milliarden US-Dollar pro Quartal ansteigen werden.

„Deep Fakes dringen mit Nachdruck in den Kryptomarkt ein, und es gibt wenig, was wir tun können, um sie zu stoppen, wenn wir nicht entsprechend aufklären und sensibilisieren“, warnte Bitget-CEO Gracy Chen in einer Stellungnahme gegenüber Cointelegraph.

Krypto-Verluste durch Deep Fakes, sortiert nach Typen. Quelle: Bitget Research

Interessanterweise haben die Deep-Fake-Betrüger ihre Taktik im Laufe der Jahre nicht allzu sehr verändert.

Die meisten Krypto-Verluste durch Deep-Fake-Betrug treten in Form von Fake-Projekten, Phishing-Angriffen und Ponzi-Systemen auf, bei denen Deep-Fake-Technologie eingesetzt wird, um das Vertrauen von Krypto-Anlegern zu gewinnen.

In den letzten zwei Jahren hat diese Methode mehr als die Hälfte aller durch Deep Fakes bedingten Krypto-Verluste ausgemacht.

„Indem sie sich als berühmte Persönlichkeiten ausgeben, erwecken sie die Illusion von Glaubwürdigkeit und einer beträchtlichen Projektkapitalisierung und erhalten so große Investitionen von ihren Opfern, ohne dass eine gründliche Sorgfaltsprüfung erfolgt“, so Bitget Research.

Der Vorstandsvorsitzende von MicroStrategy, Michael Saylor, ist dabei eine beliebte Imitationsvorlage für Betrüger. Im Januar bestätigte Saylor, sein Team entferne täglich etwa 80 KI-generierte Fake-Videos von ihm, die in der Regel für irgendeine Art von Bitcoin (BTC) Betrug werben.

Quelle: Michael Saylor

Bitget führt weiter aus, dass Deep Fakes auch auf andere Weise eingesetzt werden, z. B. für Cyber-Erpressung, Identitätsbetrug und Marktmanipulation. Zum Beispiel eine gefälschte Aussage eines Influencers oder Nachrichtensprechers mit dem Versuch, den Preis eines bestimmten Tokens zu manipulieren. Diese machen jedoch einen viel geringeren Anteil aus als andere Krypto-Scams.

Deep Fakes auf dem Vormarsch

Ohne wirksame Maßnahmen könnte der Anteil der Deep Fakes, die für Krypto-Kriminalität verwendet werden, bis 2026 70 % erreichen, prognostiziert Bitget.

„Kriminelle setzen zunehmend gefälschte Fotos, Videos und Audiodateien ein, um einen stärkeren Einfluss auf ihre Opfer auszuüben“, so Ryan Lee, Chefanalyst von Bitget Research, gegenüber Cointelegraph.

„Ein Video, in dem sich ein Betrüger als eine dem Opfer nahestehende Person ausgibt, könnte für die Betrüger von entscheidender Bedeutung sein, um einen Fuß in die Tür zu bekommen, während ein Fake-Video eines Influencers das Vertrauen der Anleger in ein Betrugsprojekt stärken könnte.“

Lee ist der Ansicht, dass eine der größten Sorgen im Zusammenhang mit der Deep-Fake-Technologie der Einsatz von KI-gestützten Sprachimitatoren ist, die es Betrügern ermöglichen, Nutzer anzurufen, sich als deren Verwandte auszugeben und um Geld zu bitten.

Eine weitere Möglichkeit sind Deep-Fakes, die die KYC-Maßnahmen (Know Your Customer) umgehen, um unbefugten Zugang zu den Geldern eines Nutzers zu erhalten.

„Im Moment müssen die Börsen umso mehr ihre 'Proof of Life' Mechanismen in ihren KYC-Systeme aufrüsten“, mahnte Lee.

„Diese Funktion bestätigt im Wesentlichen, dass es sich bei dem Nutzer um eine reale Person und nicht um ein statisches Bild oder ein Video handelt, und zwar durch Echtzeitaktionen wie Blinzeln, Bewegung oder sekundäre 'Proof of Life' Anfragen.“

„Wir warnen alle unsere Nutzer bereits bei der Registrierung, dass wir fortschrittliche KI-Lösungen verwenden, um Fälle von Deep-Fake-Missbrauch schnell zu erkennen und zu verhindern“, fügte er hinzu.

Melde dich bei unseren Sozialen Medien an, um nichts zu verpassen: X, YouTube, Instagram und Telegram – aktuelle Nachrichten, Analysen, Expertenmeinungen und Interviews mit Fokus auf die DACH-Region.