Partner von:
Anzeige

Von “Varoufake” über Pornos bis zu Obama: wie Deepfakes täuschend echt falsche Inhalte erzeugen

Barack Obama, Yanis Varoufakis und die Schauspielerin Gal Gadot waren schon von Deepfakes betroffen
Barack Obama, Yanis Varoufakis und die Schauspielerin Gal Gadot waren schon von Deepfakes betroffen

Das Online-Portal Buzzfeed hat am gestrigen Dienstag ein Video getwittert, in dem Barack Obama zu sehen ist: eine Manipulation. Denn die Mimik und die Stimme gehören dem Regisseur Jordan Peele. MEEDIA erklärt, welche Arten dieser sogenannten Deepfakes existieren und wie sie produziert werden.

Anzeige
Anzeige

In dem Buzzfeed-Video ist der ehemalige US-Präsident Barack Obama zu sehen, sitzend auf einem Stuhl in einer präsidialen Umgebung. Das Portal schreibt im bekannten Buzzfeed-Stil dazu: “Du wirst nicht glauben, was Obama in diesem Video sagt”.

Man braucht es auch gar nicht zu glauben, denn das Video ist nicht echt, es ist ein sogenannter Deepfake. Ableiten lässt sich der Begriff von Deep Learning, also selbstständiges Lernen durch künstliche Intelligenz, und Fake, sprich Unwahrheit. Deepfakes sind Manipulationen von Video- beziehungsweise Audiomaterial. Das geht vom (eher simpleren) Einfügen von Gegenständen oder Beschriftungen über das Einfügen von Gesichtern bis hin – wie in diesem Fall – zum Verändern der Mimik und des Gesprochenen.

“Wir sind am Anfang einer Ära, in der unsere Feinde es so ausschauen lassen können, als sage jemand etwas zu einer gewissen Zeit – auch, wenn der- oder diejenige solche Dinge niemals sagen würde”, sagt der Fake-Obama. Es sei also möglich, dass Feinde ihn Sachen sagen ließen, wie “Killmonger (Figur aus dem Marvel-Film ‘Black Panther’ – Anm. d. Red.) hatte Recht (…) oder, wie wäre es damit: Präsident Trump ist ein vollständiger und kompletter Volldepp.”

Ab der Hälfte des Videos teilt sich das Bild und der Zuschauer sieht auf der einen Seite weiterhin Obama sprechen und auf der anderen den oscarprämierten Schauspieler und Regisseur Jordan Peele, der eigentlich für das Gesprochene und die Mimik zuständig ist. Er will mit dem Video die Zuschauer vor zu viel Vertrauen in Online-Videos warnen.

Dieser Deepfake reiht sich in eine Handvoll anderer Beispiele ein, wie zum Beispiel das Einbauen von Gesichtern einiger Hollywood-Schauspielerinnen in Pornografievideos, das Montieren eines Hakenkreuz-Wandtattoos in eine NDR-Dokumentation oder – der in Deutschland wahrscheinlich mit meisten beachtete Fall – die Manipulation des Fingers des ehemaligen griechischen Finanzminister Yanis Varoufakis im “Neo Magazin Royale”.

Die Technik hinter der Manipulation funktioniert in Grundzügen folgendermaßen: Man gibt einem Computer genügend Daten von Person A, damit ein umfassendes Profil von den Gesichtszügen und der Stimme angelegt werden kann. Das gleiche passiert mit den Daten von Person B, die später die Gesichtszüge steuert.

Anzeige

Daraufhin verknüpft eine künstliche Intelligenz die Daten der zwei Personen.

Oft wirkt das Austauschen der Gesichter noch künstlich. Zahlreiche Firmen arbeiten aber an Programmen, die solche Manipulationen ermöglichen. Darunter das amerikanische Softwareunternehmen Adobe oder die Friedrich-Alexander-Universität Erlangen-Nürnberg in Partnerschaft mit der Stanford University und dem Max-Planck-Institut. Letztere arbeiten an einer Facial Reenactment Software, die Mimik und Lippenbewegung eines Menschen in einem Video erkennen soll und diese simultan auf das Videobild eines anderen überträgt. Adobe hat eine Software gebaut, die nach 20-minütigem Hören einer x-beliebigen Stimme in der Lage ist, diese Stimme sagen zu lassen, was immer man will.

Der Entwickler Tom Scott hat sich die Software angeschaut, die angeblich für das Einfügen der Hollywood-Schauspieler in Pornografievideos genutzt wurde. Vorausgesetzt war ein Windows 10 Computer, eine leistungsstarke Grafikkarte und mittelmäßiges Technikwissen. Scott hat für sein Experiment 500 Bildausschnitte von sich aus seinem YouTube-Kanal genommen und 500 von dem eines Kollegen. Nach 48 Stunden, die der Computer benötigte, die Bilder zu verarbeiten, beantwortet Scott die Frage, ob es funktioniert, sein Gesicht mit dem von seinem Kollegen auszutauschen mit einem nüchternen “Nein” und zeigt das Ergebnis im Video. Ob nur zu wenig Bildmaterial genutzt wurde, bleibt offen. Wobei mehr Bilder auch mehr Verarbeitungszeit bedeuten.

Anderen gelingen hier auf jeden Fall deutlich realer wirkende Ergebnisse. Und genau diese sind es, die in Zukunft noch mehr für Diskussion sorgen werden. 

Keine Neuigkeiten aus der Medien-Branche mehr verpassen: Abonnieren Sie kostenlos die MEEDIA-Newsletter und bleiben Sie über alle aktuellen Entwicklungen auf dem Laufenden.

Anzeige

Mehr zum Thema

Anzeige
Anzeige
Meedia

Meedia