BlogHintergrundKI

Warum wir KI-Bilder nicht erkennen – und was das über uns verrät

Die Autorität des Porträts ist Geschichte. Einst galt es als Fenster zur Seele, später als fotografischer Beweis der Existenz – heute ist es oft nur noch das plausible Produkt eines Algorithmus. Eine jüngst im Journal der Royal Society veröffentlichte Studie bestätigt, was viele ahnten: Unsere Fähigkeit, zwischen einem menschlichen Antlitz und einer synthetischen Fälschung zu unterscheiden, also Ki-Bilder zu erkennen, ist erschreckend gering. Doch die eigentliche Brisanz liegt nicht im technischen Triumph der Maschine über das menschliche Auge. Sie liegt in der Frage, was dieser Kontrollverlust über unsere visuelle Urteilskraft für eine Gesellschaft bedeutet, deren Fundament auch auf der Glaubwürdigkeit von Bildern ruht.

Die Anatomie der Täuschung

Die Methodik der Forscher war ebenso simpel wie entlarvend. Sie konfrontierten Probanden, darunter auch sogenannte „Super-Recogniser“ mit einer außergewöhnlichen Begabung zur Gesichtserkennung, mit einer Serie von echten und KI-generierten Porträts. Das Ergebnis: Ohne spezifische Vorbereitung rieten selbst die Experten oft nur. Erst ein gezieltes Training, das den Blick auf typische Artefakte lenkte – verräterische Asymmetrien, unlogische Haarstrukturen oder eine fehlerhafte Zahngeometrie –, verbesserte die Trefferquote signifikant.

Doch dieser Erfolg ist trügerisch und von kurzer Dauer. Denn während wir lernen, die Fehler von gestern zu erkennen, produzieren die Generatoren von morgen bereits Bilder, die diese Schwächen nicht mehr aufweisen. Die Jagd nach dem verräterischen Pixel wird zu einem permanenten Katz-und-Maus-Spiel, bei dem die KI die Regeln diktiert. Die Methode der Studie belegt somit vor allem eines: Wir trainieren uns an, die Vergangenheit einer Technologie zu erkennen, während deren Zukunft uns bereits wieder überholt hat.

Der Kollaps der visuellen Gewissheit

Hier entfaltet sich die gesellschaftliche Sprengkraft. Wenn selbst das geschulte Auge an seine Grenzen stößt, erodiert eine fundamentalste kulturellen Konvention: der Glaube an das Abbild. Das Passfoto als Identitätsnachweis, das Pressebild als Zeugnis eines Ereignisses, das Porträt als Dokument eines menschlichen Moments – all diese visuellen Anker verlieren ihre Verbindlichkeit. Das Problem ist nicht die Existenz des Fakes an sich, sondern seine Plausibilität.

Wir erleben eine Demokratisierung der Täuschung. Was früher das aufwendige Handwerk von Retuscheuren und Propagandisten war, ist heute per Mausklick verfügbar. Diese Entwicklung führt unweigerlich zu einem Klima des Misstrauens, das weit über das einzelne Bild hinausgeht. Wenn jedes Gesicht eine Fälschung sein könnte, wem oder was lässt sich dann überhaupt noch trauen? Die Frage nach dem Wert eines Bildes wird neu verhandelt, und die Antwort könnte unbequem ausfallen.

Schöpferische Zerstörung: Die Ambivalenz der KI

Für professionelle Bildgestalter ist diese Entwicklung ein zweischneidiges Schwert. Einerseits eröffnen KI-Werkzeuge faszinierende neue Horizonte für die visuelle Forschung und künstlerische Praxis. Sie agieren als unermüdliche Inspirationsquellen und beschleunigen kreative Prozesse auf eine bisher ungekannte Weise. Andererseits untergräbt dieselbe Technologie die Grundlage ihres Schaffens: die Authentizität und den Wert des sorgfältig komponierten Bildes.

Kreative sind somit zugleich Nutzer und potenzielle Opfer dieser Entwicklung. Sie müssen lernen, mit Werkzeugen zu arbeiten, deren Perfektion die Glaubwürdigkeit ihrer eigenen Zunft infrage stellt. Die Herausforderung besteht darin, eine Haltung zu entwickeln, die über die reine Anwendung hinausgeht. Es geht darum, die Mechanismen der KI nicht nur zu nutzen, sondern sie kritisch zu reflektieren und die eigene Rolle im Spannungsfeld zwischen Schöpfung und Simulation neu zu definieren.

Die Debatte darf sich daher nicht in der technischen Faszination erschöpfen. Die Fähigkeit, ein KI-Bild zu identifizieren, ist eine technische Fertigkeit. Die Fähigkeit zu verstehen, wie diese Bilder unsere Wahrnehmung, unser Vertrauen und unsere Kultur verändern, ist eine gesellschaftliche Notwendigkeit. Die eigentliche Herausforderung liegt nicht darin, die Maschine zu durchschauen, sondern unsere eigene, durch sie veränderte Wahrnehmung zu verstehen.

Christoph Künne

Christoph Künne, von Haus aus Kulturwissenschaftler, forscht seit 1991 unabhängig zur Theorie und Praxis der Post-Photography. Er gründete 2002 das Kreativ-Magazin DOCMA zusammen mit Doc Baumann und hat neben unzähligen Artikeln in europäischen Fachmagazinen rund um die Themen Bildbearbeitung, Fotografie und Generative KI über 20 Bücher veröffentlicht.

5 Kommentare

  1. Dieser Beitrag trifft meine Einschätzung ebenso wie meine Befürchtungen in Bezug auf fotorealistische KI-generierte Bilder, also besten Dank dafür! Mit KI habe sich die fotografische Sprache von der Fotografie abgekoppelt, sagte Boris Eldagsen vor mehr als zwei Jahren treffend. Unsere Wahrnehmungsgewohnheit gekoppelt mit der technischen Ähnlichkeit unseres Sehapparates mit einem Fotoapparat führen dazu, dass wir – sogar wider besseren Wissens – dem KI-Schrott dieselbe Authentizität attestieren wie einer Fotografie. Wobei sich der „Schrott“ nur auf den Wahrheitsgehalt und nicht auf die visuelle Qualität bezieht. „Wir wissen, es ist nicht echt, doch es fühlt sich echt an“, hat dies Sarah Montani letzte Woche in der NZZ genannt. Damit die Verlässlichkeit in die aufzeichnenden Medien nicht völlig verloren geht, braucht es dringend entweder ein Label für authentische Inhalte oder aber empfindliche Strafen für nicht deklarierte Deep Fakes.

  2. Spannender Artikel, aber ich sehe das anders.
    Das Problem ist nicht die KI.
    Das Problem ist, dass wir begonnen haben, Bildern zu misstrauen.
    Ich fotografiere Menschen, nicht Modelle aus dem Rechner.
    Da, wo mein Name drunter steht, sind echte Porträts.
    Echte Geschichten.
    Echte Begegnungen.
    In einer Welt voller plausibler Fälschungen bleibt Authentizität das Wertvollste, was wir haben.

Schreibe einen Kommentar

Bitte melden Sie sich an, um einen Kommentar zu schreiben.

Das könnte Dich interessieren
Schließen
Schaltfläche "Zurück zum Anfang"