
Die August-Ausgabe der Vogue hat es offiziell gemacht: In einer Anzeige für die Modemarke Guess posiert ein Model, das nie einen Fuß auf ein Set gesetzt hat. Für uns, die wir täglich mit den Möglichkeiten und Tücken von Midjourney, Firefly und Co. ringen, ist das keine Überraschung, sondern ein Meilenstein. Die Debatte hat sich endgültig verschoben. Es geht nicht mehr um die Frage, ob ein Bild echt ist, sondern darum, ob der menschliche Fotograf im neuen Workflow überhaupt noch eine zentrale Rolle spielt.
Die Pariser Agentur Seraphinne Vallora, die hinter der Kampagne steckt, hat damit eine neue Stufe der kommerziellen Anwendung gezündet. Während Laien noch über die „gruselige“ Perfektion staunen oder den Untergang der menschlichen Kreativität beklagen, sehen die Praktiker die eigentliche Disruption: die radikale Veränderung der Produktionspipeline. Die Vogue-Anzeige ist der Proof-of-Concept, dass ein kompletter, hochkarätiger Werbeauftritt ohne teure Fotoshootings, Model-Gagen und Location-Mieten realisierbar ist. Die Frage für uns lautet also nicht mehr ob, sondern noch wie schnell sich diese synthetischen Workflows in der kommerziellen Bildproduktion durchsetzen.
Der synthetische Workflow: Von der Idee zum fertigen Bild
Vergessen wir die alten Prozesse. Die neue Realität, wie sie die Guess-Kampagne andeutet, sieht anders aus. Am Anfang steht nicht mehr das Casting, sondern die Konzeption eines Prompts. Statt eines Fotografen, der mit Licht und Perspektive arbeitet, tritt ein Prompt-Regisseur, der mit Semantik und Stil-Referenzen jongliert. Die Iterationsschleifen finden nicht mehr am Set mit einem ungeduldigen Model statt, sondern auf dem Rechner, wo in Minuten Varianten eines Gesichts, einer Pose oder eines kompletten Settings durchgespielt werden.
Die eigentliche Arbeit verlagert sich zunehmend in die Post-Produktion, die aber eigentlich eine „Post-Generation“ ist. Hier werden die besten Ergebnisse aus verschiedenen KI-Generierungen zu einem finalen Composing zusammengefügt. Ein Gesicht aus Seed 123, die Hände aus Seed 456, der Faltenwurf des Kleides aus einer Inpainting-Session – das ist die neue Kunstfertigkeit. Die Beherrschung von Werkzeugen zur konsistenten Charakterdarstellung, das gezielte Training von LoRAs auf bestimmte Produkte oder Gesichter und das finale Grading der synthetischen Bilder werden zu den entscheidenden Kompetenzen. Die von der Agentur versprochenen Kosteneinsparungen von bis zu 70 Prozent sind dabei das schlagende Argument, das vermutlich jeden kaufmännischen Entscheider überzeugen wird.
Die Ästhetik des Algorithmus: Perfektion und ihre Tücken
Jeder, der ernsthaft mit generativer KI arbeitet, kennt die inhärenten Probleme der aktuellen Modelle. Die in der Vogue gezeigte, makellose Blondine ist das Paradebeispiel für den Bias, der in den Trainingsdaten steckt. Die Tendenz zu einem eurozentrischen, normschönen Ideal ist tief in den Modellen verankert. Die oft geforderte Diversität, ein eigenständiger Charakter und die Schönheit der Unvollkommenheit müssen den Algorithmen mühsam abgerungen werden. Oft scheitert man daran, weil das Modell immer wieder in seine ästhetischen Standardeinstellungen zurückfällt.
Die Reaktionen, die von „billig und faul“ sprachen und Vogue-Abos kündigten, zeigen, dass diese synthetische Perfektion noch nicht massentauglich ist Es fehlt vermutlich die subtile Lebendigkeit, die ein echter Mensch ausstrahlt – jene Mikroexpressionen und Asymmetrien, die wir unbewusst als authentisch wahrnehmen. Für uns als Bildgestalter bedeutet das eine doppelte Herausforderung: Wir müssen nicht nur die Technik beherrschen, um fotorealistische Ergebnisse zu erzielen, sondern auch die künstlerische Sensibilität besitzen, um diese Ergebnisse mit einer glaubwürdigen Seele zu versehen. Das kann durch gezieltes Compositing mit echten Fotoelementen geschehen oder durch eine Post-Produktion, die bewusst wieder kleine „Fehler“ und organische Texturen einarbeitet, um den sterilen Look der KI zu brechen.
Neue Kompetenzen: Vom Bildermacher zum Weltenschöpfer
Die Entwicklung stellt unser Berufsfeld auf den Kopf. Der klassische Fotograf, der auf den perfekten Moment wartet, wird in vielen kommerziellen Bereichen durch einen Kreativen ersetzt, der diesen Moment aus reiner Vorstellungskraft synthetisiert. Die Kernkompetenz verschiebt sich von der Bedienung einer Kamera zur präzisen Formulierung einer visuellen Idee in textlicher und bildlicher Form.
Ausblick
Das bedeutet nicht das Ende der Bildgestaltung, sondern ihre Neudefinition. Gefragt sind Hybrid-Kreative, die ein tiefes Verständnis für Kunstgeschichte, Lichtsetzung und Komposition mit den technischen Fähigkeiten des Prompt-Engineerings und des digitalen Composings verbinden. Wir werden weniger zu Abbildern der Realität und mehr zu Regisseuren künstlicher Welten. Die Vogue-Anzeige ist nur der Anfang. Der nächste Schritt sind nicht nur statische Bilder, sondern komplett KI-generierte Videokampagnen, bei denen die Grenzen zwischen Realfilm, CGI und generativer Kunst endgültig verschwimmen. Unsere Aufgabe ist es, diese Werkzeuge nicht nur zu bedienen, sondern sie meisterhaft zu dirigieren und eine neue, fesselnde Bildsprache zu entwickeln, die über die reine technische Machbarkeit hinausgeht.






Ich finde euer Heft prinzipiell gut und interessant, aber dieses permanente Unken über den Untergang der Fotografie ist derart anstrengend, dass ich wirklich keine Lust mehr habe, es zu lesen. Ich bin Fotograf, und um es mal begrifflich zu fassen: Die von einer künstlichen intelligenz generierten Bilder sind Darstellungen, die Fotografien ähneln können in ihrer Ästhetik. Sie sind der Ausdrucksform der Fotografie nachempfunden. Sie sind auf keinen Fall Fotografie. Und das werden sie auch niemals sein. Weil Fotografie ein Prozess ist, der Realität abbildet. Wie fragmentarisch das auch passieren mag. Aber es gibt immer die Referenz zur Wirklichkeit. Ich wär euch unglaublich dankbar, wenn ihr das differenziert. Genau aus diesem Grund wird es auch nie eine komplette Substitution der Fotografie durch künstliche Intelligenz geben. Weil es eben keine Fotografie ist. Keine echten Menschen, keine echten Szenen. Nur digitale Phantome ohne Identifikationspotential. Das mag für Werbung egal sein. Für viele andere Genres ist es das eben nicht.
Vielleicht hilft ihnen die nachfolgend Geschichte weiter:
Die Muster im Gewebe entstehen, wenn Fäden von der Ober- bzw. Unterseite aus betrachtet werden. Es gibt nur zwei Möglichkeiten: Entweder ist der Faden oben und somit nur auf der Oberseite sichtbar oder er ist unten und somit nur auf der Unterseite zu sehen. Für die schönen Seidenstoffe, wie sie beispielsweise in China hergestellt wurden und sich früher nur reiche Personen leisten konnten, waren viele Personen nötig, die auf einem Gerüst oberhalb des Webstuhls saßen und die Fäden hochzogen oder unten liegen ließen.
Der Franzose Joseph Marie Jacquard spekulierte, wie sich die zur Musterbildung der Gewebe erforderlichen Menschen durch eine Maschine ersetzen ließen. Im Jahr 1804 entwickelte er eine Lochkarte aus hartem Karton. Ein Mechanismus hob die Fäden, wenn ein Stift durch ein Loch kam. Wenn der Stift auf kein Loch traf, blieben die Fäden unten. Eine gewaltige Erfindung, durch die jedoch viele Tausende Arbeiter, die bisher als „Zieher” ihren Lohn verdienten, auf einen Schlag arbeitslos wurden, da sich diese Jacquardmaschine weltweit rasend schnell verbreitete.
Diese Arbeitslosigkeit blieb in Europa nicht ohne Folgen. Die Arbeiter stürmten die Fabriken, in denen die Maschinen ihre Arbeit aufgenommen hatten, und zerstörten sie. Doch die Maschinenstürmer
-mussten sich schließlich ein neues Betätigungsfeld für ihren Verdienst suchen,
-sie konnten sich aber auch ihr Leben lang ärgern und dagegen wehren.
-sie hatten auch die Möglichkeit sich als Designer neuer Ideen zu betätigen.
Die Neuerung konnte wurde und wird niemals rückgängig gemacht – ob damals oder heute. Es liegt an jedem selber.
Jacquards programmgesteuerter Webstuhl war tatsächlich eine Inspiration für die Erfindung des Computers. 1843 schrieb Lady Lovelace über die (nie gebaute) Analytical Engine von Charles Babbage, dass diese “algebraische Muster webt, genauso wie Jacquards Webstuhl Blumen und Blätter“.
Andere Heransgehensweise: früher konnte man Legebatterie-Eier zuverlässig daran erkennen, daß sie Ablaufrillen aufwiesen, verursacht von den Gitterstäben des Käfigbodens, über die die Eier rollen müssen und: daß die Eierschale sauberkeitsmäßig makellos sauber war. Beides hat die Technik geändert, die Rillen sind weg (zumindest die aus Nicht-BilligBilligBillig-Produktionsstätten – oder sollte ich sagen : Hühner-Folterkellern?) und es finden sich auch an mindestens einem Ei aus jeder Packung Feder- und Kacke-Reste.
Perfektion ist unglaubwürdig – kleine Macken sind glaubwürdig(er).
…und überhaupt: , was scheren uns in diesem Zusammenhang die männlich/weiblich-humanoiden Darstellungen? Ist bei „Mode!“ nicht ausschließlich deren textiler Umhüllung von Bedeutung?
Mir drängt sich schon seit längerer Zeit der Eindruck auf, dass sich all die Influencerinnen irritierend ähnlich sehen. Die Konvergenz zu einem generischen Gesicht schritt schon mit den Mitteln plastischer Chirurgie, Kosmetik und Filteranwendungen voran, und der Beautystandard der generativen KI bringt diese Entwicklung nur zu ihrer logischen Konsequenz. Vielleicht hat es ja sein Gutes: Man kann künftig seinen KI-Avatar influencen lassen und sich das regelmäßige Lippen-Aufspritzen und Stirn-Botoxen sparen. Im Interesse der Gesundheit wäre es allemal besser.