Blog

Digitale Bildfälschung war gestern

Digitale Bildfälschung war gestern
Montage: Doc Baumann

 

Wir machen uns Sorgen um Fotos, die mit Photoshop verfälscht wurden. Das ist richtig so und ehrenwert, aber digitale Bildfälschung könnte bald hoffnungslos altmodisch sein. Schon in naher Zukunft werden neuronale Netze aus ein paar Bildern oder Filmsequenzen täuschend echte Videoszenen generieren, und aus wenigen Sätzen unserer persönlichen Sprache werden sie lange Reden zusammenbauen und uns Aussagen in den Mund legen, an die wir nicht einmal gedacht haben.

 

Blicken wir ein paar Jahre in die Zukunft: Hacker haben Telekommunikations-Satelliten gekapert, plötzlich wird weltweit das aktuelle TV-Programm unterbrochen. Zu sehen und zu hören ist eine Szene aus dem Thronsaal von Trumpiana (ehemals Washington). Kaiser Donald I. spricht mit Präsident Putin und stimmt der Wiedervereinigung Alaskas mit Russland zu. (Tatsächlich gehörte der US-Bundesstaat bis 1867 zu Russland; die USA kauften das Land damals für 7,2 Millionen US-Dollar.) Dafür übernimmt die russische Staatsbank Trumps Schulden, nachdem dieser alle US-Zeitungen und TV-Sender aufgekauft hatte. In der Öffentlichkeit soll die Rückabwicklung als eine Geste des guten Willens zwischen zwei befreundeten Nationen dargestellt werden.

Aus dem Palast kommt nach wenigen Minuten ein empörter Tweet des Kaisers („sehr, sehr schrecklich!“), sein Pressesprecher geißelt die absurden Lügen, die russische Regierung lässt verlauten, dass sie keine ausländischen Staatsoberhäupter finanziert.

Nun gibt es verschiedene Möglichkeiten. Variante 1: Die Videoszene ist echt. Ob die 873. Affäre dem Kaiser wirkliche Schwierigkeiten bereiten wird, wird sich zeigen. Vielleicht läuft es so ab wie stets seit 2017: Seine Gegner fühlen sich bestätigt, seine Anhänger weisen wutschnaubend die Lügen zurück, die über ihren Kaiser verbreitet werden. Alles läuft wie geplant: Alaska fällt an Russland, der Kaiser ist seine Schulden los.

Variante 2: Die Videoszene ist gefälscht. Doch auch viele Anhänger von Donald I. glauben an die Echtheit des Videos und empören sich als amerikanische Patrioten über den Ausverkauf vaterländischen Bodens. Der Kaiser gibt ein Gutachten bei der NSA in Auftrag. Diese kommt zu dem Ergebnis, das Video sei eine Fälschung. Man habe klar Signaturen entdeckt, die belegen, dass sowohl der Kaiser wie sein russischer Gast mit Hilfe neuronaler Netze generiert worden seien. Sie können sogar ein paar echte Videosequenzen identifizieren, aus denen das neue Bildmaterial synthetisiert wurde. Unabhängige Experten im Ausland kommen zum selben Ergebnis. Der Kaiser wurde Opfer einer üblen Fälschung.

Variante 3: Die Szene ist sowohl echt als auch gefälscht. Wie das? Die Palastwache hat herausgefunden, dass ein tatsächliches Gespräch zwischen dem Kaiser und dem Präsidenten, das genau den zuvor beschriebenen Inhalt hatte, mit einer versteckten Kamera aufgenommen und aus dem Palast geschmuggelt wurde. Es ist damit zu rechnen, dass es bald veröffentlicht wird. Zwar von keinen amerikanischen Medien, aber sicherlich im feindlichen EU-Ausland.

Mit Hilfe der in Variante 2 beschriebenen neuronalen Netze stellen Experten des Geheimdienstes das Gespräch digital 1:1 nach. Obwohl die Technik längst weiterentwickelt ist, sorgen sie dafür, dass ein paar kleine Fehler ins Datenmaterial eingebaut werden, die später entlarvt werden können.

Das Video wird über die gehackten Satelliten weltweit gesendet. Der Kaiser dementiert umgehend. Und selbst unabhängige Experten und Anti-Donaldisten kommen schließlich zu dem Ergebnis, dass es sich bei dem gesendeten Material um eine Fälschung gehandelt hat. Der Schluss, dass der Inhalt falsch sein müsse, da das Video gefälscht ist, scheint auf der Hand zu liegen. Der Kaiser ist entlastet.

 

Es ist eine unangenehme Zukunft, die uns da erwartet. Denn so fiktiv die Geschichte von Kaiser Donald I. auch ist – die beschriebene Technik ist es nicht. Über die neuesten Möglichkeiten der AI-Synthese (Artificial Intelligence) von Videosequenzen berichtete Mitte Mai 2017 der „New Scientist“; über Sprachsynthese der „Spiegel“ in seiner Ausgabe 22/2017. Dort findet sich auch ein Link, wie sich solche Kunststimmen – die als solche kaum noch zu identifizieren sind – anhören. Hier sogar in Gesangsform, wenn auch mit recht groben Bildumsetzungen.

Neuronale Netze brauchen keine stundenlangen Sprachbeispiele einer Person mehr, um sie in Schnipsel zu zerlegen und neu zusammenzubauen. Sie lernen aus vergleichsweise kurzem Tonmaterial tatsächlich die individuellen Spracheigenheiten und wenden sie passend auf Fragen, Ausrufe, heitere oder traurige Stimmungslagen an.

Selbst die Hoffnung, die digitalen Fälschungen dank verbleibender Unvollkommenheiten entlarven zu können, ist vergeblich: Man kann einfach ein weiteres neuronales Netz auf die Ergebnisse ansetzen, solche Fehler suchen lassen und das Resultat in perfektionierte Varianten einspeisen.

 

1976 gab der Kommunikationstheoretiker und Psychotherapeut Paul Watzlawick einem seiner Bücher den Titel „Wie wirklich ist die Wirklichkeit?“. Die Frage bezog sich damals noch darauf, was unser Gehirn von einer gegebenen Wirklichkeit erkennen kann. Rund 40 Jahre später ist die Frage aktueller denn je, denn inzwischen zerrinnt uns die Wirklichkeit selbst wie Sand zwischen den Fingern. Lügen und Fake News sowie ihre Dementis bilden einen unentwirrbaren Brei von Annahmen unterschiedlicher Wahrscheinlichkeit. Eine Orientierung ist kaum mehr möglich. Eine Behauptung könnte zutreffen, aber vielleicht auch ihr Gegenteil.

Was das Fälschungspotenzial eines Werkzeugs wie Photoshop betrifft, so werden die Menschen in wenigen Jahren über die Ergebnisse wohl nur noch mitleidig lächeln. Digitale Bildfälschung war gestern.

Zeig mehr

Doc Baumann

Doc Baumann befasst sich vor allem mit Montagen (und ihrer Kritik) sowie mit der Entlarvung von Bildfälschungen, außerdem mit digitalen grafischen und malerischen Arbeitstechniken. Der in den Medien immer wieder als „Photoshop-Papst“ Titulierte widmet sich seit 1984 der digitalen Bildbearbeitung und schreibt seit 1988 darüber.

Ähnliche Artikel

Schreiben Sie einen Kommentar

Bitte melden Sie sich an, um einen Kommentar zu schreiben.

Das könnte Dich interessieren
Close
Back to top button