Deepfakes: Die Kunst, „Fake-Autoren“ zu Zeiten der Künstlichen Intelligenz zu erschaffen

29/12/21

In den letzten Jahren hat die Entwicklung und Implementierung von tiefen neuronalen Netzen die Entwicklung von Anwendungen beschleunigt, die verschiedene Kategorien von Bildern und Videos sehr zuverlässig erkennen können. 

Dies sind mathematische Modelle, die ihre Wurzeln in Studien haben, die vor mehr als einem halben Jahrhundert veröffentlicht wurden und die sich erst in den letzten Jahren dank sehr leistungsstarker Computer mit geringen Kosten schnell entwickelt haben und ihre Anwendung in verschiedenen realen Kontexten wie der Erkennung ermöglichen von Gesichtern und menschlicher Sprache.

Eine Anwendung, die sich in der Unterhaltungswelt einigen Erfolgen erfreut, aber einige Sicherheitsprobleme aufwirft, ist die Entwicklung von Deepfakes, Kombination aus "Deep Learning" und "Fake". Dieser Begriff bezieht sich auf jede Kreation, die durch Techniken erzielt wird, die Bilder einer Person (Ziel) mit denen einer anderen Person (Quelle) in einem Video überlagern, in dem die zweite Person bestimmte Dinge tut oder sagt. Auf diese Weise erhält man gefälschte realistische Videos, in denen beispielsweise ein Schauspieler eine Rolle spielt, sein Gesicht jedoch realistisch dem Gesicht einer berühmten Person überlagert ist, die die vom Schauspieler proklamierten Phrasen nie ausgesprochen hat und auch nicht im Kontext war die Szene. Allgemeiner mit dem Begriff Deepfakes es bezieht sich auf synthetische Inhalte, die durch Werkzeuge von künstliche Intelligenz.

Kürzlich wurde in einigen Artikeln ein Überblick über die Techniken zum Erstellen von Deepfakes und zu ihrer Identifizierung. Erkennungstechniken sind unerlässlich, um Bilder und Videos zu identifizieren, die speziell erstellt wurden, um Personen falsch zu informieren oder allgemeiner zu täuschen. In den Werken "The Creation and Detection of Deepfakes: A Survey"1 und "Deep Learning für die Erstellung und Erkennung von Deepfakes: eine Umfrage"2, erläutern die Autoren aktuelle Trends bei Deepfakes-Fertigungstechnologien und mögliche Verwendungen in gutem und bösem Glauben.

Neben rechtmäßigen Verwendungen beispielsweise im Bereich der Filmproduktion oder in der maschinellen Übersetzung gibt es eine ganze Reihe illegaler Verwendungen, insbesondere bei der Herstellung von Pornofilmen oder bei der Verfälschung von Reden, zum Zwecke des leichten Geldverdienens, die öffentliche Meinung und Wahlen zu beeinflussen, Panik zu erzeugen, falsche Beweise für Gerichtsverfahren zu generieren und so weiter. 

Der erste Versuch zur Erstellung von Deepfake es wird auf einen Reddit-Benutzer zurückgeführt, der die Anwendung namens 'FakeApp' nach einem Modell entwickelt hat, das auf basiert Autoencoder gekoppelt, um die Hauptmerkmale aus einem Gesichtsbild zu extrahieren und sie auf einem anderen Gesichtsbild wiederzugeben. 

Un Autoencoder ist ein neuronales Netz bestehend aus a Encoder und ein Decoder, erstellt zum Extrahieren der Hauptmerkmale eines Satzes von unbeschrifteten Daten (Encoder) und Rekonstruieren der Eingabedaten (Decoder) ausgehend von einer zuvor erstellten kompakten Darstellung. EIN Deepfake kann erstellt werden mit a Encoder auf das Gesicht einer Person spezialisiert und die so realisierte Codierung als Eingabedaten für a Decoder spezialisiert auf das Gesicht einer anderen Person.

Eine zweite Technologie zur Herstellung von „Deepfakes“ ist der Einsatz von „Generative Adversarial Networks“. Auch in diesem Fall haben wir es mit neuronalen Netzen zu tun, deren Zweck es ist, realistische Bilder zu erstellen, die nicht realen Menschen entsprechen3.  

Der Einsatz dieser Technologien macht es zunehmend schwieriger, zwischen einem echten Bild oder Video (Bild oder Sprache) und einem modifizierten Bild zu unterscheiden, was zu ernsthaften Problemen in den Bereichen Privatsphäre, demokratisches Leben und nationale Sicherheit führt.  

In diesen Veröffentlichungen wird auch auf einige für die Militärwelt besonders interessante Fälle hingewiesen, in denen für militärische Zwecke modifizierte Satellitenbilder erstellt wurden, deren Details im Original nicht vorhanden sind.

Es stimmt zwar, dass es immer schwieriger wird, die Deepfakes aus der Realität ist es auch wahr, dass uns die Technologie zu Hilfe kommt. In ihren Werken untersuchen die Autoren die wichtigsten Analysetechniken, die in der Vermessung verwendet werden Deepfakes, Techniken, die oft wieder Technologien von tiefe Lernen. Leider sind diese Erkennungstechniken jedoch sehr anfällig, und ein moderater Aufwand reicht aus, um den Erstellungsprozess zu ändern Deepfakes damit diese nicht mehr als solche erkennbar sind.

Heutzutage werden in Strafprozessen in vielen Fällen Videobilder verwendet, von Forensikern zertifizierte Videos.

Aber wie sehr können Sie dem vertrauen, was Sie in einem Video sehen oder hören?

Immer weniger ... deshalb wird es zunehmend notwendig sein, IT-Experten zu unterstützen (digitale Forensik) in der Lage sein, die Verwendung von anzuwenden und anzuerkennen tiefe Lernen an Forensiker. Leider reicht das Ergebnis in einigen Fällen jedoch nicht aus, um die Wahrheit zu ermitteln, da es nicht immer einfach oder möglich ist, die Funktionsweise einer Technologie zu erklären. tiefe Lernen produzieren oder lokalisieren Deepfakes

Daher ist es notwendig, nachrichtendienstliche Techniken und Methoden zur vergleichenden Überprüfung des Kontextes mit den technologischen Werkzeugen der Bild- und Videoanalyse zu kombinieren.

Alessandro Rugolo, Giorgio Giacinto, Maurizio d'Amato

Um mehr zu erfahren:

- Die Entstehung und Erkennung von Deepfakes: Eine Umfrage (arxiv.org

[1909.11573] Deep Learning zur Erstellung und Erkennung von Deepfakes: Eine Umfrage (arxiv.org)

Die neueste KI-fähige Waffe: „Deep-Faking“-Fotos der Erde | Winteruhr

Die neueste KI-fähige Waffe: „Deep-Faking“-Fotos der Erde – Defense One

Aufbau und Training von Deep Fake Autoencodern - CodeProject

Encoder-Decoder-Modelle für rekurrente neuronale Netze für die neuronale maschinelle Übersetzung (machinelearningmastery.com)

KI-Generatoren für gefälschte Gesichter können zurückgespult werden, um die echten Gesichter zu enthüllen, auf denen sie trainiert haben | MIT-Technologie-Überprüfung

Generative Adversarial Networks (GANs) verstehen | von Joseph Rocca | Auf dem Weg zur Datenwissenschaft

[1406.2661] Generative kontradiktorische Netzwerke (arxiv.org)

1 Yisroel Mirsky und Wenke Lee. 2021. Die Entstehung und Erkennung von Deepfakes: Eine Umfrage. ACM-Computer. Überleben 54, 1, Artikel 7 (Januar 2022), 41 Seiten. DOI:https://doi.org/10.1145/3425780

2 Nguyen, TT, Nguyen, QVH, Nguyen, CM, Nguyen, D., Thanh Nguyen, D. und Nahavandi, S., „Deep Learning for Deepfakes Creation and Detection: A Survey“, arXiv e-prints, 2021, https://arxiv.org/abs/1909.11573v3

3 Ein Beispiel für Gesichter, die mit dieser Methode erstellt wurden, finden Sie hier: https://thispersondoesnotexist.com (Eröffnungsfoto)