BlogKI

Poverty Porn – synthetische Tränen, echte Spenden

Ein Kind, dessen Augen eine Geschichte von Verlust und Hunger erzählen, das Gesicht von Staub und Tränen gezeichnet, der Blick direkt in die Kamera – ein perfekt komponiertes Bild des Elends. Es trifft uns an unserer emotionalen Sollbruchstelle und der Impuls, zu helfen, ist unmittelbar. Doch dieses Kind hat nie existiert. Sein Gesicht ist das Produkt eines Algorithmus, seine Tränen sind aus Pixeln geweint. Wir erleben gerade, wie eine der umstrittensten Praktiken der Spendenwerbung, der sogenannte „Poverty Porn“, durch künstliche Intelligenz seine finale, fiktionale Eskalationsstufe erreicht. Einem Bericht des Guardian zufolge greifen Hilfsorganisationen vermehrt auf KI-generierte Bilder zurück, um für ihre Anliegen zu werben. Damit betreten sie ein ethisches Minenfeld, das die Grundfesten der visuellen Kommunikation erschüttert.

Der Prompt ist simpel: <br/>a girl in an african rubbish dump eating from a garbage can
Der Prompt ist simpel:
a girl in an african rubbish dump eating from a garbage can

Die perfektionierte Inszenierung des Elends

Die Verlockung für die Organisationen ist nachvollziehbar. Die Produktion solcher Bilder ist schnell, kostengünstig und umgeht heikle rechtliche und ethische Hürden der Fotografie vor Ort. Es braucht keine teuren Reisen in Krisengebiete, keine Auseinandersetzung mit der Würde der Abgebildeten und keine Einverständniserklärungen. Die KI liefert auf Befehl die visuelle Abkürzung zur Empathie: ein Kind, das traurig genug, aber nicht zu verstörend wirkt; eine Landschaft, die Zerstörung andeutet. Es ist die Perfektionierung einer emotionalen Kalibrierung, die darauf abzielt, maximale Spendenbereitschaft bei minimaler Konfrontation mit der ungeschminkten, oft widersprüchlichen Realität zu erzeugen.

Diese Entwicklung ist die logische Konsequenz einer langen Geschichte der narrativen Verflachung. Schon vor Jahrzehnten wurde kritisiert, dass die Darstellung von Menschen im globalen Süden oft auf eine passive Opferrolle reduziert wird, die bestehende Machtgefälle zementiert, anstatt sie zu hinterfragen. Die KI treibt diese Entmenschlichung auf die Spitze. Der Mensch wird endgültig zum reinen Symbol, zu einer leeren Projektionsfläche für das Mitgefühl des Betrachters, entkoppelt von jeder realen Person und ihrer einzigartigen Geschichte. Die Darstellung von Armut wird von einer dokumentarischen Aufgabe zu einem reinen Designprozess.

Der Kollaps der visuellen Währung

Die größte Gefahr dieser Praxis liegt jedoch nicht allein in der Täuschung oder der ethischen Fragwürdigkeit. Sie liegt in der systematischen Entwertung unserer visuellen Währung: der Glaubwürdigkeit. Fotografie, insbesondere die dokumentarische, basierte immer auf dem unausgesprochenen Vertrag, ein Abbild der Wirklichkeit zu sein – ein Fenster, kein Gemälde. Natürlich wurde dieses Versprechen durch Inszenierung und Manipulation schon immer herausgefordert, doch der Referenzpunkt blieb stets die Realität.

Wenn nun Bilder von Leid, die von echten Fotografien nicht mehr zu unterscheiden sind, nach Belieben generiert werden können, erodiert dieses Grundvertrauen. Die oft beschworene Abstumpfung durch eine Flut von Schreckensbildern bekommt eine neue, gefährlichere Qualität. Es ist nicht mehr nur die Gewöhnung an den Anblick von Leid, sondern der nagende Zweifel an dessen Echtheit. Wenn jedes Bild potenziell eine Fiktion sein kann, warum sollte uns das nächste, vielleicht sogar authentische Bild einer Katastrophe noch berühren? Die KI-generierte Armut wirkt wie Falschgeld im System der humanitären Kommunikation: Sie untergräbt den Wert aller Bilder, auch der echten. Dieser Vertrauensverlust könnte langfristig verheerendere Folgen haben als jede kurzfristig gesteigerte Spendensumme.

Zwischen ethischer Notwendigkeit und narrativem Potenzial

Wäre es also die Lösung, den Einsatz von KI in diesem Kontext gänzlich zu verbieten? Das greift zu kurz. Es gibt Szenarien, in denen synthetische Bilder eine legitime Funktion erfüllen können. Beispielsweise, um die Identität von Personen zu schützen oder um Situationen zu visualisieren, die aus Sicherheitsgründen nicht fotografiert werden können. Die entscheidende Variable ist Transparenz. Ein klar als KI-generiert gekennzeichnetes Bild, das eine allgemeine Situation illustriert, anstatt eine spezifische, reale Person vorzugeben, ist etwas anderes als eine bewusste Täuschung.

Darüber hinaus könnte die Technologie, wenn sie reflektiert eingesetzt wird, sogar helfen, die visuellen Klischees des „Poverty Porn“ zu durchbrechen. Für uns als Bildschaffende und visuelle Kommunikatoren bedeutet dies eine Neudefinition unserer Rolle. In einer post-authentischen Bildwelt wird Kontext zur wichtigsten Ressource. Unsere Aufgabe verschiebt sich vom reinen Produzieren von Bildern hin zum kritischen Kuratieren, zum Einordnen und zum Schaffen von Transparenz. Wir müssen die visuellen Kompetenzen schärfen – unsere eigenen und die unseres Publikums –, um zwischen wirksamer Visualisierung und manipulativer Fiktion unterscheiden zu können. Die entscheidende Frage ist nicht mehr nur, was ein Bild zeigt, sondern wer es mit welcher Absicht geschaffen hat und was es uns über unsere eigene Wahrnehmung von Realität verrät.

Christoph Künne

Christoph Künne, von Haus aus Kulturwissenschaftler, forscht seit 1991 unabhängig zur Theorie und Praxis der Post-Photography. Er gründete 2002 das Kreativ-Magazin DOCMA zusammen mit Doc Baumann und hat neben unzähligen Artikeln in europäischen Fachmagazinen rund um die Themen Bildbearbeitung, Fotografie und Generative KI über 20 Bücher veröffentlicht.

Kommentar

  1. Letztendlich schaden sich die Hilfsorganisationen damit selbst. Kommt heraus, daß ein von KI erstelltes Bild als reales Bild dargestellt wird, so überträgt sich das Misstrauen am Bild schnell mal auf die Organisation, die damit um Spenden wirbt. Ich kann mir gut vorstellen, daß darunter dann auch die Spendenfreufigkeit stark leidet.

Schreibe einen Kommentar

Bitte melden Sie sich an, um einen Kommentar zu schreiben.

Das könnte Dich interessieren
Schließen
Schaltfläche "Zurück zum Anfang"