Im einfachsten Sinne ist ein Deepfake eine Kombination aus KI-Technologien zum Klonen von Gesichtern und Stimmen, mit denen lebensechte, computergenerierte Videos einer realen Person erstellt werden können. 

Um eine hochqualitative Nachahmung eines Individuums zu entwickeln, müssen Entwickler zig Stunden Videomaterial sammeln, das der entsprechenden Person zugeordnet ist, sowie einen menschlichen Nachahmer, der die Eigenheiten der Mimik und die Stimme der Zielperson imitiert.

Es gibt zwei Menschen, die an der Erstellung eines Deepfake beteiligt sind. Zum einen die meist berühmte Persönlichkeit, zum anderen eine unbekannte Person, die mit dem Projekt vertraut ist.

Von der Technik zur Realität

Aus technischer Sicht werden visuelle Deepfakes mithilfe maschineller Lernwerkzeuge entwickelt, mit denen die Bilder aller Gesichtsausdrücke, die sich auf die beiden Personen beziehen, dekodiert und in einer Matrix zusammengefasst werden können, die aus bestimmten Schlüsselattributen besteht, z. B. der Position von Nase, Augen und Mund. Darüber hinaus werden feinere Details wie Hautstruktur und Gesichtsbehaarung weniger wichtig und können als zweitrangig angesehen werden.

Die Dekonstruktion wird im Allgemeinen so durchgeführt, dass es meistens möglich ist, das Originalbild jedes Gesichts aus seinen entfernten Elementen vollständig wiederherzustellen. Darüber hinaus ist einer der Hauptaspekte bei der Erstellung eines Qualitäts-Deepfakes, wie gut das endgültige Bild rekonstruiert wird – so dass alle Bewegungen im Gesicht des Imitators auch im Gesicht der Zielperson wahrgenommen werden. 

Matthew Dixon, Assistant Professor und Forscher an der Stuart School of Business des Illinois Institute of Technology, erklärte gegenüber Cointelegraph, dass sich Gesicht und Stimme mit bestimmten Programmen und Techniken leicht rekonstruieren lassen.

„Sobald eine Person digital geklont wurde, ist es möglich, gefälschtes Videomaterial von ihnen zu erstellen, in dem alles gesagt wird, einschließlich böswilliger Propaganda in Sozialen Medien. Der durchschnittliche Social-Media-Follower kann nicht erkennen, dass das Video gefälscht ist.“

In ähnlicher Weise argumentiert Vlad Miller, CEO von Ethereum Express - einer plattformübergreifenden Lösung, die auf einem innovativen Modell mit eigener Blockchain basiert und ein Proof-of-Authority-Consensus-Protokoll verwendet. Er sagt, dass die Deepfake-Technologie nichts weiteres ist, als eine Methode zur Synthese menschlicher Bilder unter Verwendung einer maschinellen Lerntechnik namens GAN, einem Algorithmus, der eine Kombination aus zwei neuronalen Netzen einsetzt.

Der erste generiert die Bildabtastungen, während der zweite die realen Abtastungen von den gefälschten unterscheidet. Der betriebliche Nutzen von GAN kann mit der Arbeit von zwei Personen verglichen werden, so dass die erste Person mit Fälschungen beschäftigt ist, während die andere versucht, die Kopien von den Originalen zu unterscheiden. Wenn der erste Algorithmus eine offensichtliche Fälschung bietet, erkennt der zweite Algorithmus diese sofort. Danach verbessert der erste Algorithmus seine Arbeit, indem er ein realistischeres Bild liefert.

In Bezug auf die negativen sozialen und politischen Auswirkungen, die Deepfake-Videos auf die Massen haben können, erklärte Steve McNew, ausgebildeter Blockchain-/Kryptowährungsexperte und Senior Managing Director bei FTI Consulting, gegenüber Cointelegraph:

„Online-Videos explodieren als Hauptinformationsquelle. Stellen Sie sich Social Media und Nachrichtensender vor, wie Sie hektisch und vielleicht unwissentlich veränderte Clips teilen – von Bodycam-Videos der Polizei, Politikern in unangenehmen Situationen oder führenden Persönlichkeiten der Welt, die entzündliche Reden halten – um eine alternative Fakten zu schaffen. Die Möglichkeiten für Deepfakes, böswillige Propaganda und andere Formen von Betrug zu verbreiten, sind erheblich.“

Beispiele für Deepfakes, die für schändliche Zwecke verwendet werden

Da die Deepfake-Technologie in der Lage ist, die Gesichtszüge und Persönlichkeitsmerkmale von Personen in der realen Welt zu manipulieren und zu imitieren, gibt sie Anlass zu berechtigten Bedenken, insbesondere in Bezug auf die Verwendung für verschiedene zwielichtige Aktivitäten. 

Darüber hinaus ist das Internet seit vielen Jahren mit einfachen Tutorials überflutet, die Menschen lehren, wie sie digital veränderte Audio-/Videodaten erstellen, die verschiedene Gesichtserkennungssysteme täuschen können.

Darüber hinaus sind kürzlich einige wirklich störende Fälle von Audio-/Videomanipulation aufgetaucht, die die Nützlichkeit von Deepfakes in Frage gestellt haben. Beispielsweise wird in einem kürzlich erschienenen Artikel behauptet, dass die Deepfake-Technologie seit 2014 so weit fortgeschritten ist, dass sie heute zur Produktion von Videos verwendet werden kann, in denen das Ziel nicht nur bestimmte Emotionen zum Ausdruck bringen kann, sondern auch Ähnlichkeit mit bestimmten ethnischen Gruppen aufweist. Zu diesem Thema wies Martin Zizi, CEO von Aerendir, einem Anbieter von physiologischer Biometrietechnologie, Cointelegraph auf Folgendes hin:

"Eine KI lernt nicht aus Fehlern, sondern aus einfachen Statistiken. Es mag wie ein kleines Detail erscheinen, aber eine KI, die auf einfachen Statistiken basiert – selbst mit Billionen Datenbytes – ist genau schlichtweg eine statistische Analyse vieler Dimensionen. Wenn Sie also mit Statistiken spielen, können Sie auch durch Statistiken untergehen.“

Zizi fügte dann hinzu, dass eine weitere wichtige Facette der Gesichtserkennung darin besteht, dass sie auf neuronalen Netzen basiert, die von Natur aus sehr zerbrechlich sind. Vom strukturellen Standpunkt aus können diese Netzwerke als Kathedralen betrachtet werden, bei denen, sobald Sie einen Eckstein entfernen, das gesamte Gebilde zerfällt. Um das Thema näher zu erläutern, erklärte Zizi:

„Durch das Entfernen von 3 bis 5 Pixeln aus einem 12-Millionen-Pixel-Bild von jemandem wird die Erkennung komplett kompromittiert! Forscher haben herausgefunden, dass gegnerische Angriffe auf neuronale Netze jene 3 bis 5 Pixel finden können, die die „Eckpfeiler“ im Bild darstellen.“

Ein letztes großes Beispiel dafür, dass Deepfake-Technologie aus finanziellen Gründen missbraucht wurde, war, als der CEO eines nicht namentlich genannten britischen Energieunternehmens kürzlich dazu verleitet wurde, 220.000 Euro auf ein unbekanntes Bankkonto zu überweisen, weil er glaubte, dass er mit dem Geschäftsführer der Muttergesellschaft telefonierte. In Wirklichkeit gehörte die Stimme einem Betrüger, der Deepfake-Sprachtechnologie eingesetzt hatte.

Blockchain kann gegen Deepfakes helfen

Laut einem kürzlich veröffentlichten 72-seitigen Bericht von Witness Media Lab wurde Blockchain als legitimes Instrument zur Bekämpfung der verschiedenen digitalen Bedrohungen durch die Deepfake-Technologie angeführt.

In dieser Hinsicht können Benutzer mithilfe der Blockchain die Authentizität verschiedener Video- oder Audiodateien, die direkt oder indirekt mit ihnen in Verbindung stehen, digital signieren und bestätigen. Je mehr digitale Signaturen einem bestimmten Video hinzugefügt werden, desto wahrscheinlicher wird es als authentisch eingestuft. 

 

Greg Forst, Marketingdirektor von Factom Protocol, erklärte gegenüber Cointelegraph, dass Blockchain das Potenzial habe, der globalen Tech-Community eine einzigartige Lösung anzubieten – oder zumindest einen Großteil davon. Er wies darauf hin:

„Befindet sich Videoinhalt in der Blockchain, nachdem er erstellt wurde, zusammen mit einem Überprüfungs-Tag oder einer Grafik, wird dem Deepfake-Vorhaben eine Sperre auferlegt. Dies hängt jedoch davon ab, dass von Anfang an Videoinhalte zur Blockchain hinzugefügt werden. Von dort aus müssen digitale Identitäten die Herkunft und den Schöpfer des Inhalts unterstreichen. Die Sicherung von Daten an der Quelle und eine gewisse Standardisierung der Medien werden weitreichende folgen haben.“

McNew ist außerdem der Ansicht, dass aufgrund der allgemeinen Unveränderlichkeit der Blockchain der Inhalt eines bestimmten Datenblocks nach Bestätigung durch das Netzwerk nicht geändert werden kann. Wenn also Videos (oder sogar Fotos) unmittelbar in eine Blockchain-Überprüfungsanwendung fließen, bevor sie zum Teilen zur Verfügung gestellt werden, können veränderte Videos leicht als Fälschung identifiziert werden. 

Eine ähnliche Idee hat auch Miller verbreitet, der der Meinung ist, dass Blockchain-Technologie in Verbindung mit künstlicher Intelligenz dazu beitragen kann, viele der Datenschutz- und Sicherheitsbedenken von Deepfakes zu lösen. Er fügte hinzu:

"KI kommt mit der Erfassung, Analyse, Sortierung und Übertragung von Daten perfekt zurecht und verbessert die Geschwindigkeit und Qualität der Ausführung interner Prozesse. Die Blockchain sorgt wiederum dafür, dass niemand in die Arbeit der KI eingreift – sie schützt Daten und deren Reihenfolge vor jeglichen Eingriffen.“

Die Blockchain-Technologie hat ihre eigenen Einschränkungen

Aus heutiger Sicht gibt es einige kleine Nachteile, die verhindern, dass die Blockchain-Technologie aktiv zur Überwachung von Deepfakes im Internet eingesetzt wird. Für den Anfang ist die Skalierbarkeit der Technologie insgesamt begrenzt, da die Menge an Rechenressourcen und Speicher zur Bekämpfung digital manipulierter Audio-/Video-Daten in Echtzeit sehr hoch ist.

Ein weiteres potenzielles Problem, das durch die Verwendung der Blockchain für die Deepfake-Erkennung entstehen kann, ist die erhebliche Einschränkung von Crowdsourcing-Videoinhalten (z. B. das derzeit auf YouTube verfügbare Material). Zu diesem Thema wies Dixon auf Folgendes hin:

„Wie erreicht jemand in einem armen Land die Welt mit seiner Botschaft, wenn er von einem Unternehmen mit Sitz im Silicon Valley genehmigt werden muss? Sollten wir Technologieunternehmen mit einer solchen Macht ausstatten? Die Freiheit steht immer auf dem Spiel, wenn das Vertrauen schwächer wird.“

Eine ähnliche Meinung vertritt Hibryda, Erfinder und Gründer von Bitlattice, einem Distributed Ledger System, dass eine mehrdimensionale Gitterstruktur verwendet, um Probleme wie Skalierbarkeit, Sicherheit, Timing usw. anzugehen.

„Der größte Nachteil der Blockchain-Technologie besteht darin, dass nicht festgestellt werden kann, ob die signierten Medien wirklich echt sind oder nicht. Dies ist jedoch kein internes Problem der Blockchain oder verwandter Technologien – sie stellen nur Ledgers bereit, die extrem schwer zu manipulieren sind. Es ist extern und es gibt keinen guten Weg, das zu lösen. Während die Überprüfung durch die Masse eine Teillösung sein könnte, ist es angesichts der Manipulation der Masse ziemlich unmöglich, ein System zu entwickeln, das zuverlässige und objektive Faktenprüfungen bietet.“

Allerdings sagte Forst gegenüber Cointelegraph, dass die Mehrheit der Befragten der Ansicht ist, dass die Nutzung von Blockchain für die Erkennung von Deepfakes zu teuer sein könnte. Und doch gibt es mehrere Open-Source-Lösungen, die dies versuchen. Forst fügte hinzu: "Der größte Nachteil ist, dass Blockchain das Problem mit Deepfakes nicht vollständig löst, sondern ein Teil der Lösung sein kann."