BlogHintergrundKI

Visueller Sündenfall im Heute Journal: Das ZDF, die KI und das generierte Drama

Es sind jene Momente, die das Vertrauen in die mediale Wirklichkeitsabbildung fundamental erschüttern. Mitten im seriösen Nachrichtenflaggschiff des ZDF, dem heute journal, flimmerten Bilder über den Schirm, die einen Einsatz der US-Einwanderungsbehörde ICE zeigten: eine Frau, zwei Kinder, Beamte in martialischer Pose. Die Szenen wirkten beunruhigend echt, doch sie sind eine Fälschung – generiert von der künstlichen Intelligenz „Sora“ von Open AI.

Die Redaktion hatte das Material als Symbolbild eingesetzt, die entscheidende Kennzeichnung als synthetisches Produkt jedoch unterschlagen. Was folgte, war nicht nur eine hastige Korrektur und eine halbherzige Entschuldigung, sondern die Offenbarung eines tiefgreifenden Problems: die schleichende Erosion der visuellen Glaubwürdigkeit durch technische Bequemlichkeit und redaktionelle Sorglosigkeit.

Die Tücke des technischen Details

Technisch ist der Vorfall eine Lehrstunde in Sachen prozessualer Nachlässigkeit. Die Kennzeichnung als KI-Bild, oft nur ein flüchtiges Metadatenfeld oder eine fragile Textebene, ging auf dem Weg vom Schnittplatz zur Sendeanstalt „verloren“. Ein alltäglicher Fehler in digitalen Arbeitsabläufen, könnte man meinen. Doch in einem Umfeld, das von der Prämisse der Authentizität lebt, ist ein solcher Fehler keine Lappalie, sondern ein systemisches Versagen. Er zeigt, wie anfällig die Sicherungsketten in den Redaktionen sind, wenn unter Zeitdruck gearbeitet wird und das Bewusstsein für die Brisanz synthetischer Medien noch nicht in der DNA des journalistischen Handwerks verankert ist. Sich auf die Technik zu verlassen, ohne die Prozesse abzusichern, ist ein Spiel mit dem Feuer und führt zu Reputationsverlust.

Der ethische Kern des Problems

Damit berühren wir den eigentlichen Kern des Problems, der weit über verlorene Metadaten hinausgeht. Synthetische Bilder haben in einer Nachrichtensendung schlichtweg nichts verloren, es sei denn, die Berichterstattung thematisiert explizit die künstliche Intelligenz selbst. Die Ethik der Berichterstattung verlangt, dass Bilder die Wirklichkeit abbilden – nicht ihre Simulation. Wer KI-Bilder als Symbolbilder für reale Ereignisse nutzt, spielt mit dem Feuer. Die Zuschauer verlassen sich auf die Authentizität der Bilder, gerade bei öffentlich-rechtlichen Sendern, die sich gern als Bollwerk gegen Fake News inszenieren. Wird diese Erwartung enttäuscht, leidet nicht nur das einzelne Format, sondern das Fundament des Vertrauens in die vierte Gewalt.

KI ist längst zur Waffe im Kampf um die visuelle Wahrheit geworden. Ob manipulierte Gesichter von Aktivisten, Deepfake-Pornos oder staatlich orchestrierte Bildkampagnen – die Möglichkeiten, mit wenigen Klicks die Wirklichkeit zu verbiegen, sind grenzenlos. Was früher die Domäne von Spezialisten war, ist heute für Hans und Franz mit ein paar Mausklicks erreichbar. Die Folge: Die „Liar’s Dividend“, ein Lügner-Bonus für alle, die ertappt werden – denn wenn alles gefälscht sein könnte, ist plötzlich nichts mehr sicher. Die visuelle Wahrheit wird zum Spielball von Technik, Ideologie und Bequemlichkeit.

Kein Einzelfall: Die inszenierte Wirklichkeit

Dieser Vorfall reiht sich nahtlos ein in eine Kette von Vorkommnissen, die das Vertrauen in die redaktionelle Unvoreingenommenheit der Öffentlich-Rechtlichen erschüttern. Erinnert sei an die „Framing“-Debatte bei der ARD, an manipulativ verkürzte Diagramme zur Darstellung von Wahlergebnissen oder an die sorgfältige Auswahl von Interviewpartnern und Studiogästen. Die zementieren in ihren Rollen als oft eher ein gewünschtes Meinungsbild als die gesellschaftliche Vielfalt abzubilden. Auch wenn es um die Auswahl von Themen und Experten geht, scheint die Welt oft nur aus Klimarettern, Gender-Aktivisten und Umverteilungsfreunden zu bestehen.

Auch hier wurde die Wirklichkeit neu definiert – allerdings nur mit Worten ganz ohne KI: Diese Aufnahme, die das ZDF am 15. Februar 2026 sendete, stammt von 2022. Sie zeigt keine ICE-Beamten, die Kinder in Schulen festnehmen, sondern entstand im Kontext einer Amok-Drohung.
Auch hier wurde die Wirklichkeit neu definiert – allerdings nur mit Worten ganz ohne KI: Diese Aufnahme, die das ZDF am 15. Februar 2026 sendete, stammt von 2022. Sie zeigt keine ICE-Beamten, die Kinder in Schulen festnehmen, sondern entstand im Kontext einer Amok-Drohung.

Immer wieder Gegenstand von Kritik ist auch die Gewichtung von Themen oder die Art, wie Proteste und politische Bewegungen dargestellt werden: Mal wird allzu sehr zugespitzt, dann wider geglättet, mal wird ein gesellschaftlicher Trend zum „Hype“ erklärt, dann ein Problem systematisch kleingeredet. Diese Tendenz zur inszenierten Wirklichkeit findet in der Nutzung von KI-Bildern ihre vorläufige technologische Krönung. KI ist längst zur Waffe im Kampf um die visuelle Wahrheit geworden.

Fazit

Die entscheidende Frage, die sich aus diesem visuellen Sündenfall ergibt, ist daher keine rein technische oder medienethische mehr, sondern eine zutiefst demokratische. Wenn die Reaktionen das brüchig gewordene Vertrauen in Institutionen weiterhin so leichtfertig verspielen, leisten Medien, die die Realität nicht abbilden, sondern lieber simulieren, der Spaltung der Gesellschaft Vorschub. Sie liefern denjenigen Munition, die der Presse pauschal Lügen vorwerfen, und verunsichern jene, die auf eine nüchterne, faktenbasierte Berichterstattung angewiesen sind. Erweist der öffentlich-rechtliche Rundfunk der Demokratie damit einen Dienst? Die Antwort kann nur ein klares Nein sein. Vielleicht ist es an der Zeit für eine radikale Rückbesinnung: mehr Demut vor der komplexen Wirklichkeit und weniger Haltungsjouralismus im „Ich-berichte-mir-die-Welt-wie-sie-mir-gefällt“-Stil.

Christoph Künne

Christoph Künne, von Haus aus Kulturwissenschaftler, forscht seit 1991 unabhängig zur Theorie und Praxis der Post-Photography. Er gründete 2002 das Kreativ-Magazin DOCMA zusammen mit Doc Baumann und hat neben unzähligen Artikeln in europäischen Fachmagazinen rund um die Themen Bildbearbeitung, Fotografie und Generative KI über 20 Bücher veröffentlicht.

Ähnliche Artikel

Schreibe einen Kommentar

Bitte melden Sie sich an, um einen Kommentar zu schreiben.

Das könnte Dich interessieren
Schließen
Schaltfläche "Zurück zum Anfang"