HintergrundKI

Kennzeichnungspflicht für KI-Bilder: Der Zeitplan für Fotografen

Die digitale Bildwelt steht vor einer Zäsur. Der EU AI Act ist kein fernes Zukunftsszenario mehr, sondern eine präsente rechtliche Realität, deren Übergangsfristen ablaufen. Für Fotografen und Bildbearbeiter bedeutet dies vor allem eines: eine unmissverständliche Kennzeichnungspflicht. Wer die neuen Regeln ignoriert, riskiert empfindliche Strafen. Dieser Beitrag schlüsselt auf, welche Pflichten schon jetzt im Oktober 2025 gelten und was in den kommenden Monaten zur unumgänglichen Vorschrift wird.

Der rechtliche Status Quo

Der EU AI Act ist bereits politisch beschlossen und in Kraft getreten. Allerdings sieht das Gesetz, ähnlich wie andere große EU-Regularien, gestaffelte Übergangsfristen vor, bevor alle Bestimmungen verpflichtend werden. Wir befinden uns aktuell in dieser entscheidenden Phase, in der die Zeit der reinen Information vorbei und die Zeit der Implementierung angebrochen ist. Unternehmen wird dringend geraten, sich rechtzeitig auf die Umsetzung der neuen Maßnahmen vorzubereiten, auch wenn die finalen rechtlichen Anforderungen erst am Mitte 2026 vollständig greifen. Für Fotografen bedeutet das konkret: Die Pflicht zur Kennzeichnung von KI-generierten oder wesentlich manipulierten Bildern ist rechtlich bereits verankert. Auch wenn die härtesten Sanktionen erst nach Ablauf der letzten Fristen drohen, existiert schon jetzt eine klare Erwartungshaltung seitens des Gesetzgebers und des Marktes. Plattformen, Kunden und Bildagenturen beginnen, ihre Richtlinien anzupassen. Wer jetzt noch keine Strategie zur transparenten Kennzeichnung hat, handelt fahrlässig. Die Situation ist vergleichbar mit anderen EU-Richtlinien, die erst in nationales Recht umgesetzt werden müssen, um ihre volle Wirkung zu entfalten . Der politische Wille zur Transparenz ist jedoch unmissverständlich formuliert, und die technische Infrastruktur zur Umsetzung steht bereit.

Was ab 2026 zur harten Pflicht wird

Aktuell gilt die Kennzeichnungspflicht nur für Deepfakes. Doch die Schonfrist endet bald. Ab August 2026 werden die meisten Bestimmungen des AI Acts, insbesondere die Transparenzpflichten für KI-generierte Inhalte, mit voller rechtlicher Konsequenz durchgesetzt. Ab diesem Zeitpunkt ist die Kennzeichnung keine Empfehlung mehr, sondern eine unumgängliche Pflicht. Jeder, der KI-Werkzeuge nutzt, um Bilder zu schaffen oder zu verändern, die den Eindruck erwecken, authentisch zu sein, wird rechtlich als „Deployer“ (Anwender) eingestuft und haftet für die korrekte Deklaration.

Die zentrale Frage lautet dabei: Was genau muss gekennzeichnet werden? Die Antwort des Gesetzgebers ist eindeutig: Inhalte, die künstlich erzeugt oder manipuliert wurden, müssen als solche erkennbar gemacht werden. Sobald also KI-generierte Pixel ins Bild kommen, die nicht durch ein Objektiv erfasst wurden, greift die Pflicht. Das betrifft nicht nur komplett synthetische Bilder, sondern auch subtilere Eingriffe wie das Hinzufügen von Bildelementen per „Generative Fill“, das Erweitern des Bildrandes mit KI-generierten Inhalten oder das Entfernen von Objekten, bei dem die entstehende Lücke durch eine KI gefüllt wird.

C2PA und IPTC: Die Werkzeuge der Gegenwart

Die gute Nachricht ist: Die Werkzeuge zur Erfüllung dieser Pflichten sind im Oktober 2025 bereits etabliert und einsatzbereit. Die Industrie hat mit der Coalition for Content Provenance and Authenticity (C2PA) einen robusten Standard geschaffen. Dieser agiert wie ein fälschungssicherer digitaler Herkunftsnachweis, der direkt in die Metadaten einer Bilddatei eingebettet wird. Adobe hat diese Technologie unter dem Namen „Content Credentials“ tief in seine Creative Cloud integriert.

Nutzt ein Fotograf in Photoshop die generative Füllung, wird dieser Arbeitsschritt automatisch in den Content Credentials vermerkt. Diese Informationen bleiben erhalten und schaffen eine lückenlose Chronik der Bildbearbeitung. Für Anwender außerhalb des Adobe-Ökosystems bietet sich die Nutzung der etablierten IPTC-Metadaten an. In Feldern wie „Special Instructions“ lässt sich der KI-Einsatz präzise dokumentieren. Die Etablierung eines konsistenten Workflows, der diese Dokumentation zur Routine macht, ist die wichtigste Hausaufgabe für jeden professionellen Bildschaffenden im Herbst 2025.

Haftungsrisiken und die Chance der Authentizität

Die DSGVO hat bewiesen, dass die EU ihre Regulierungen mit Nachdruck durchsetzt. Beim AI Act drohen bei Verstößen gegen die Transparenzpflichten Bußgelder von bis zu 35 Millionen Euro oder 7% des weltweiten Jahresumsatzes. Auch wenn solche Summen für Freiberufler abstrakt klingen, ist die Gefahr von Abmahnungen durch Wettbewerber oder Kunden real. Wer jetzt noch zögert, riskiert nicht nur zukünftige Strafen, sondern auch einen akuten Reputationsschaden.

Paradoxerweise liegt in dieser Regulierung eine enorme Chance. In einer Flut von synthetischer Perfektion wird das nachweislich authentische Bild zu einem wertvollen Gut. Das Siegel „100% kamerabasiert“ könnte sich von einer reinen Information zu einem echten Qualitätsmerkmal entwickeln. Die Kennzeichnungspflicht erzwingt eine neue Ehrlichkeit, die das Vertrauen in professionelle Fotografie stärken kann. Wer sich heute als Garant für visuelle Wahrhaftigkeit positioniert, investiert direkt in die eigene Zukunftsfähigkeit. Die Zeit des Abwartens ist vorbei – die Umsetzung muss jetzt beginnen.

Christoph Künne

Christoph Künne, von Haus aus Kulturwissenschaftler, forscht seit 1991 unabhängig zur Theorie und Praxis der Post-Photography. Er gründete 2002 das Kreativ-Magazin DOCMA zusammen mit Doc Baumann und hat neben unzähligen Artikeln in europäischen Fachmagazinen rund um die Themen Bildbearbeitung, Fotografie und Generative KI über 20 Bücher veröffentlicht.

31 Kommentare

  1. „Aktuell gilt die Kennzeichnungspflicht nur für Deepfakes.“ Ja, das stimmt, so steht es im EU AI Act. Was soll sich 2026 ändern? Es kommt ja kein neuer AI Act oder eine strengere Variante.

    Zitat:
    “ ‘deep fake’ means AI-generated or manipulated image, audio or video content that resembles existing persons, objects, places, entities or events and would falsely appear to a person to be authentic or truthful“

    An welcher Stelle im AI Act steht, dass alle Bilder mit generierten Pixeln gekennzeichnet werden müssen? Eine KI-Person muss sogar einer existierenden Person zum verwechseln ähnlich sehen um gekennzeichnet werden zu müssen. Woher kommt die Panikmache? Was habe ich übersehen oder falsch interpretiert?

      1. Aber wo genau im Artikel 50? (1) und (2) richtet sich an die Anbieter, bei (3) geht es um Biometrie, (4) sind die Deepfakes und (5-7) sind Details. Ich finde den Hinweis auf „alle KI-generierten Inhalte“ noch immer nicht…

          1. Sorry, wenn ich jetzt wie ein Troll wirke… aber sind wir uns einig, dass nur Punkt (4) im Artikel 50 auf uns (Bildersteller:innen) zutrifft? Dann lese ich nämlich dort genau die Einschränkung auf Deepfakes (im Original „resembles existing persons, objects, places, entities or events“).

            Eine Meinung wäre, dass sämtliche fotorealistischen KI-Bilder automatisch Deepfakes sind (z.B. ist das die eines österr. Anwalts, der auf KI Recht spezialisiert ist und in seiner Beratung auf Nummer Sicher gehen will), aber das sehen sie und ich ja nicht so.

        1. Nicht alle Bilder, die fotorealistisch, aber keine Fotos sind, sind deshalb automatisch Deepfakes. Nicht unbedingt „Deep“, da sie auch ganz oldschool gemalt sein können, aber vor allem nicht in jedem Fall „fake“. Umgekehrt kann ein unbearbeitetes Foto „fake“ sein, wenn es eine inszenierte Situation abbildet, möglicherweise mit Doppelgängern von Personen des öffentlichen Lebens.

          Der Begriff „Deepfake“ ist entstanden, als die ersten von einer generativen KI erzeugten Bilder veröffentlich wurden, die in mehr oder minder fotorealistischer Weise bekannte Personen in Situationen zu zeigen schienen, in denen sie nie gewesen waren oder sich jedenfalls anders verhalten hätten. Das war inhaltlich nichts Neues, aber dank generativer KI-Modelle auf der Basis von Deep Neural Networks (ein technischer Begriff, der auf die Zahl verborgener Schichten von Neuronen zwischen der Input- und der Output-Schicht verweist) konnte nun jeder Hans und Franz so etwas produzieren.

          Wenn man nun aber aus „Deepfake“ ein strafrechtliches oder zivilrechtliches Konzept machen will, wird es schwierig. Dass Deep Neural Networks benutzt werden, ist im Grunde unerheblich, und man könnte sich auch andere technische Ansätze vorstellen, mit denen sich Ähnliches bewerkstelligen ließe. Dass nun der breiten Masse ein Werkzeug zur Verfügung steht, kann auch kein Kriterium sein. Mord zum Beispiel galt immer schon als Verbrechen, und nicht erst, seit besonders effektive Mittel, andere umzubringen, zumindest in manchen Staaten nahezu unbeschränkt verfügbar sind.

          Was den Fake-Begriff geht, kann er sich letztendlich auch nicht nur auf bekannte Personen beschränken. Jemand könnte beispielsweise einen nicht individuell identifizierbaren Vertreter einer bestimmten Personengruppe beim Begehen eines Verbrechens zeigen, um damit zum Hass auf diese Personengruppe anzustacheln. So etwas will die EU verhindern, ohne dass es um eine konkrete, tatsächlich existierende Person ginge, der fälschlich etwas unterstellt würde.

          Aus der EU-Verordnung lese ich jedenfalls heraus, dass es generell um KI-generierte Bilder geht, die von einem unbefangenen Betrachter für Abbildungen der Realität gehalten werden könnten, und das angestrebte Ziel ist, es solche Fehleinschätzungen durch eine Kennzeichnungspflicht zu verhindern.

          Das müsste, wenn es funktionieren soll, allerdings eine allgemeine Kennzeichnungspflicht sein, die sich also nicht nur auf KI-generierte Bilder beschränkt. Nur für eine generelle Kennzeichnungspflicht gilt, dass jeder Versuch, sich ihr zu entziehen, bereits einen Verdacht begründet. Wenn beispielsweise die Hauptuntersuchung eines Autos schon lange überfällig ist, hilft es nicht, die verräterische TÜV-Plakette abzukratzen – für ein Auto ohne Plakette gilt keine Unschuldsvermutung, sondern man geht bis zum Beweis des Gegenteils davon aus, dass es nicht länger verkehrssicher ist.

          1. „Das müsste, wenn es funktionieren soll, allerdings eine allgemeine Kennzeichnungspflicht sein, die sich also nicht nur auf KI-generierte Bilder beschränkt“

            soll das heißen, dass alle der hier angesprochenen Kennzeichnungspflichten nicht nur dann greifen sollen, wenn KI im Spiel war, sondern auch bei digitalen und analogen Verarbeitungsschritten?
            Und dass das Deiner Meinung nach bereits durch den AI Act der Fall ist?

        2. Nein, der AI-Act geht nicht so weit. Aber der CAI/C2PA-Standard, der bei der Umsetzung der EU-Verordnung wohl eine wesentliche Rolle spielen wird, ist allgemeiner gefasst und beschränkt sich nicht auf die bloße Kennzeichnung von KI-Bildern. Er bietet daher das Potential, alle Zweifel an der Genese eines Bildes auszuräumen, auch wenn es mit konventionellen Mitteln manipuliert oder umgekehrt gar nicht bearbeitet wurde. Jedenfalls, so weit es sich um Digitalbilder handelt. Im analogen Bereich gibt es nichts Neues; da bleiben wir weiterhin auf die etablierten forensischen Methoden zur Erkennung von Manipulationen und Fälschungen angewiesen.

  2. Eigentlich steht das in den Sätzen nach dem Zitat 🙂
    Die Kennzeichnung generierter Inhalte (nicht nur von Deepfakes) wird rechtlich verbindlich und zum Nachweis der Urheberschaft muss man Bearbeitungen dokumentieren.

    1. Hmm, mein Zitat ist der Punkt (60) vom Article 3: Definitions.
      https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:32024R1689
      Da kommt kein bezugnehmender Satz anschließend.

      Eine ganz ähnliche Begriffserklärung findet sich auch im Punkt (134) in diesem Dokument, aber da sind wir wieder bei der Kennzeichnungspflicht (nur) für Deep Fakes.

      Meine einzige Erklärung für eine generelle Kennzeichnungspflicht wäre, dass jedes KI-Foto als Deepfake gesehen wird, aber da Sie „nicht nur von Deepfakes“ erwähnen, sehen Sie da auch einen Unterschied. Der große Aufhänger ist das Wort „existing“ in der Definition von Deepfakes. Aber darüber zu diskutieren ist müßig, nachdem ich diesen Artikel gefunden habe 🙂
      https://onlinelibrary.wiley.com/doi/full/10.1002/poi3.435

      Jedenfalls dreht sich immer alles um diese Deepfake-Sache. Warum wäre das so wichtig, wenn ohnehin alles gekennzeichnet werden muss? Das ist für mich unlogisch. Deswegen bin ich (Fotograf, kein Anwalt) überhaupt auf die Suche im Gesetzestext gegangen…

      Sollte hier vom Punkt (2) im Artikel 50 gesprochen werden, dann richtet sich dieser doch an die KI-Anbieter, oder nicht? Also Midjourney muss in die Metadaten „AI generated“ reinschreiben. Ich als Nutzer bin nur im Punkt (3) erwähnt.

      Es ist seltsam, etwas in Frage zu stellen, das für alle anderen selbstverständlich zu sein scheint. Deswegen hoffte ich auf Aufklärung woher dieses Wissen eigentlich kommt. 🙂

  3. Dank für das Update 😉
    aber was genau bedeutet das in der Praxis? Ich wünschte mir da noch ein wenig Input.
    Wie soll das aussehen? Wie soll eine Dokumentation aussehen? Reicht ein Hinweis wie „KI-generierte Inhalte“ unter dem Bild/im Bild. Ein Post auf Instagram kann z.B. mit dem Vermerk KI versehen werden.
    Was ist mit der Adobe-Dokumentation in den Metadaten…, reicht das bereits aus.
    Wie setzt man das in der Praxis rechtssicher um, um nicht angreifbar zu sein.
    Theoretisch kann ja jedes Bild, jede Arbeit hinterfragt werden.
    Viele Grüße

  4. Die Kennzeichnung selbst soll klar, für Menschen verständlich und zugleich maschinenlesbar sein – denkbar sind Lösungen über Wasserzeichen, Metadaten oder deutlich sichtbare Hinweise direkt am Bild. Wie das genau aussehen soll, will die EU – nach meinem aktuellen Kenntnisstand – in einem „Playbook“ regelnd, das kurz vor Inkrafttreten des Gesetzes veröffentlicht werden soll.

  5. Das bedeutet: Wenn ich ein Bild durch Tools entrauschen lasse und sonnst alles per Hand entwickle usw., ist es bereits Kennzeichnungspflichtig?? Dann ist jedes Handyfoto automatisch als KI bearbeitet zu markieren, dann haben wir genau das gleiche Problem wie jetzt, nur mit dem Unterschied das auf JEDEM Bild steht: „mit KI bearbeitet“,…. das interessiert den den Nutzer genauso wenig wir alle Cookie Banner!

    1. Ich glaube, es ist noch viel schlimmer. So weit ich das verstanden habe, muss man tatsächlich ALLE Eingriffe aufführen, die getätigt wurden. Und nicht nur pauschal: „KI-bearbeitet“ darunter schreiben.

      Aber vielleicht gibt hier ja auch noch der Autor genauere Informationen dazu (oder korrigiert mich).

      1. Konkretes gibt es dazu noch nicht – sonst hätten wir es längst thematisiert 🙂 Für die praktische Anwendung der Regeln soll es zeitnah zum August 2026 ein sogenanntes „Playbook“ geben, das die Feinheiten regelt.

        1. Das hörte sich hier in der Antwort von Michael J. Hußmann aber anders an:

          „Es geht auch nicht um eine binäre Aussage, dass ein Bild mit oder ohne KI entstanden sei – denn diese Unterscheidung ist tatsächlich schon jetzt kaum noch aussagekräftig –, sondern um die Art des Eingriffs oder ganz generell darum, wie ein Bild entstanden ist“

          https://www.docma.info/blog/der-ki-stempel-ruckt-naher-was-die-eu-verordnung-fur-bildprofis-wirklich-bedeutet

          Macht anders ja auch gar keinen Sinn, ansonsten extra Daten im Bild zu einzelnen Verarbeitungsschritten zu verändern, wenn dann eh nur „KI generiert“ drin stehen muss ab der ersten, minimalen Veränderung oder eigentlich ja sogar bei jeder Aufnahme einer Kamera, in der KI mit am werkeln ist.

          1. Es gibt die komplexe Realität auf der einen Seite, und auf der anderen Seite Gesetze und Ausführungsbestimmungen, die regeln, was man in dieser komplexen Realität tun darf und tun muss.

            Dass die binäre Frage, ob KI an der Bildentstehung beteiligt war, ihren Sinn weitgehend verloren hat, ist ein Aspekt der Realität. Genauso gut könnte man fragen, ob bei der Entstehung eines Bildes Strom geflossen ist: Man kann Fotos auf rein chemischem Wege erzeugen, aber in der Praxis wird wohl zumindest das Entwicklerbad elektrisch temperiert worden sein, und auch das Licht im Vergrößerer wird nur dank des elektrischen Stroms geleuchtet haben.

            Die KI hatte schon im vergangenen Jahrhundert Einzug in den Kamerabau gehalten, sei es in Gestalt neuronaler Netze (bei Nikon) oder als Fuzzy Logic. Damals allerdings noch auf die Steuerung von Belichtung und Fokussierung beschränkt, während die Bilder selbst noch auf rein chemischem Wege entstanden. Der Abzug, der dann im Labor eines Dienstleisters entstand, verdankte seine Tonwerte und Farben aber vielleicht schon einem „intelligenten“ Weißabgleich mit Gesichtserkennung.

            Heute beginnt die KI-Anwendung beim Demosaicing, was noch harmlos erscheint, denn wenn man nicht mit einem Foveon-Sensor (oder monochrom) fotografiert, werden ja immer zwei Drittel des farbigen Bildes erraten; die KI rät lediglich besser als die herkömmlichen Verfahren, was man ihr (und ihrem Nutzer) kaum zum Vorwurf machen kann.

            Anders sieht es beim großflächigen Löschen und Ersetzen ganzer Bildbereiche aus, aber das betrifft ja nicht nur den KI-Einsatz – manipulieren kann mann auch ganz oldschool mit Montagen, oder indem man einfach in das Bild hinein malt. Und das sind Techniken, die bereits im 19. Jahrhundert gängig waren; die Geschichte der Fotografie war auch von Anfang an eine Geschichte nachträglicher Eingriffe in die Bilder.

            Deshalb geht es bei Content Credentials nach dem CAI/C2PA-Standard ja auch nicht um die moderne Version der binären Gretchenfrage, wie man es mit der KI hielte. Vielmehr soll die Provenienz der Bilder dokumentiert werden, also wie das Bild entstanden ist, idealerweise angefangen mit der Belichtung in der Kamera.

            Der Begriff der Provenienz ist aus dem Bereich der bildenden Kunst bekannt: Wer ein Kunstwerk erwirbt, will dessen vollständige Geschichte hören: Wo und wann welcher Künstler das Werk geschaffen hat, über welche Kette von Besitzern es zum aktuellen Besitzer gekommen ist, gegebenenfalls ob es zu irgendeinem Zeitpunkt restauriert worden ist und so weiter. Wenn eine solche Geschichte damit beginnt, dass ein vermeintliches Werk eines bekannten und hoch gehandelten Künstlers bei einer Haushaltsauflösung im Keller oder auf dem Dachboden gefunden worden sei, ohne dass jemand wüsste, wie es dorthin gekommen ist, dann wirkt das verdächtig. Vielleicht handelt es sich ja um eine Fälschung, oder das Bild ist zwar echt, hat aber nicht immer auf legalem Weg seinen Besitzer gewechselt.

            Wir müssten dahin kommen, dass in der Bildproduktion ähnliche Regeln gelten und Bilder ohne eine lückenlos dokumentierte Provenienz als fragwürdig angesehen werden. Die Nutzung von KI-Verfahren ist für sich genommen nicht anrüchig, aber sie sollte transparent dokumentiert sein. Ob sie dann akzeptabel ist, hängt vom Zusammenhang und dem Verwendungszweck ab. Wenn es um eine Dokumentation geht, gelten andere Regeln als in der künstlerischen Fotografie, und für Einsendungen zu einem Naturfotowettbewerb können strengere Regeln gelten als bei einem Stockfoto-Anbieter.

            Aber ungeachtet der Komplexität der Frage des KI-Anteils an einem Bild gibt es auch die Fälle, in denen sich die Antwort dann doch zu einer binären Unterscheidung vereinfacht: Der als Reaktion auf einen Textprompt entstandene Output einer generativen KI ist nun mal kein Foto, egal wie man die Sache wendet.

  6. So sehr ich diesen Ausführungen auch zustimme, hilft das leider so gar nichts weiter in der aufgeworfenen rechtlichen Frage.
    Um auf der rechtlich sicheren Seite zu sein, hätte ich persönlich gar nichts dagegen, einfach „Mit KI bearbeitet“ an meine Bilder zu „kleben“, auch wenn das u.U. gar nicht immer der Fall ist. So wie das heute viele Youtuber mit „Werbung“ tun, egal ob da Werbung drinnen ist oder nicht.
    Wobei es zukünftig eben, wenn man den Text von Christoph Künne ernst nimmt (was ich bei DOCMA Artikeln immer tue), eh wohl so gut wie kein Bild mehr geben wird, bei dem das nicht mehr der Fall sein wird. Und leider wäre das auch dann der Fall, wenn man mit der KI die Authentizität überhaupt erst wieder herstellt, wenn bei der Aufnahme bspw. Dinge verdeckt worden sind und man das mit der KI mithilfe eines weiteren Bildes nun korrekt darstellen würde.

    Aber so einfach wird es wohl nicht sein, wenn man detailliert darstellen muss, was genau wo eine KI gemacht hat.

    Man schaue sich einen mehrstufigen Workflow an, bei dem man erst in einem RAW Konverter seiner Wahl ein Bild entwickelt mit vielen einzelnen Schritten, die jeder einzelne evtl. KI unterstützt ist. Dann ab in eine Bildbearbeitung mit dutzenden und mehr Ebenen, die ebenfalls wieder alle u.U. mit einer KI Unterstützung arbeitet. Und dann ist dieses Bild vlt. nur Rohmaterial für eine Montage mit einigen weiteren Bildern, die ebenfalls so entstanden sind- evtl. tlw. aus Bilddatenbanken importiert. Und am Ende wird das Bild dann nochmal in ein weiteres Programm geladen, um es für die jeweiligen Ausgabengrößen/Medien zu optimieren.
    Und wehe, irgendwo dazwischen geht die Dokumentation flöten…

    Übrigens: „Der als Reaktion auf einen Textprompt entstandene Output einer generativen KI ist nun mal kein Foto, egal wie man die Sache wendet.“

    es geht ja auch gar nicht um Fotos, sondern Bilder. Und ein „als Reaktion auf einen Textprompt entstandene Output einer generativen KI“ ist dennoch ein Bild. Und gilt übrigens auch für viele der Bilder, die als Foto angefangen durch die Vielzahl an Bearbeitungsschritte gegangenen sind, die in der DOCMA gelehrt wurden und werden.

    Ich sehe keinen Unterschied, ob eine Manipulation mit dem einen oder anderen Werkzeug vollführt wurde.

    1. Na ja, das schrieb ich ja bereits … Ja, ob man ein Bild mit Hilfe einer KI oder auf andere Weise manipuliert, ist zweitrangig. Und ja, die Realität der Bildbearbeitung ist weit komplexer, als dass sie sich durch ein ankreuzbares Bekenntnis, ein Bild sei mit oder ohne KI-Beteiligung entstanden, sinnvoll abbilden ließe. Der CAI/C2PA-Standard trägt dem deshalb Rechnung, und er ist geeignet, die komplexe Entstehungsgeschichte eines Bildes transparent zu machen.

      Und wenn diese Metadaten verloren gehen? Dann ist das Bild nicht mehr viel wert und sein Anbieter bekommt Probleme, wenn er es noch irgendwie in Wert setzen will, sei es ein monetärer Wert oder auch ein rein ideeller, wenn man einen nicht dotierten Wettbewerbspreis zu gewinnen hofft. Also ebensolche Probleme wie derjenige, der einem Museum ein angeblich echtes Werk eines bekannten Künstlers verkaufen oder es auf einer Auktion anbieten will, aber nicht in der Lage ist, seine Provenienz sauber dokumentiert nachzuweisen. Oder wie das Museum, dessen Bestände mittlerweile kritischer als früher betrachtet werden, weil sich darunter Raubkunst befinden könnte. Der Nachweis der Provenienz muss sich zu einer Bringschuld des Anbieters entwickeln, womit „Huch, da sind ja gar keine Metadaten mehr; keine Ahnung, wo die geblieben sind!“ zu einer ebenso hilflosen und wirkungslosen Ausrede wird wie das klassische „Der Hund hat meine Hausaufgaben gefressen“. Dann kann man sich sein Bild immer noch zuhause an die Wand hängen, viel mehr aber nicht.

      1. na, da können wir ja froh sein, dass solche Entstehungsnachweise erst jetzt in der Weltgeschichte auftauchen- wehe, wenn DaVici vergessen hätte anzugeben, welchen Pinsel er konkret am rechten Auge der Mona Lisa verwendet hatte…müsste man glatt wegwerfen das Bild. Ansonsten hinkt der Vergleich doch sehr, zumal die Dokumentation an der Urheberschaft so gar nichts ändert, so lange die KI nur als Werkzeug eingesetzt wird.

        Übrigens kann ich mich nicht erinnern, dass sich die DOCMA dafür eingesetzt hätte, dass jeder Bearbeitungsschritt zu dokumentieren wäre.

        Leider ist die Frage nach einer praxisgerechten Dokumentation über dutzende bis hunderte Bearbeitungsschritte, auch die der selektiven Bereiche, lesbar für Mensch und Maschine, unbeantwortet geblieben. Und das über viele Bildgenerationen hinweg- auch dann, wenn ein Bild in einem weiteren Werk Verwendung findet (bspw. in einem Artikel).

        Am Ende wird das Gerichte beschäftigen, weil nicht klar ist, wer wann was genau zu tun hat bzw. wie das jeweils zu interpretieren ist (siehe hier die Fragen über private Verwendung) und Abmahnanwälte werden neues Futter bekommen.

        1. Den CAI/C2PA-Standard gibt es ja noch nicht so lange, und die Soft- und Hardwarehersteller sind noch dabei, ihn umzusetzen. Aber er bietet tatsächlich das Potential zur Dokumentation aller Schritte der Bildbearbeitung.

          Metadaten, die eine Bildbearbeitung dokumentieren, gibt es allerdings schon länger. Vor 12 Jahren gab es eine Kontroverse um die Authentizität von Paul Hansens Siegerbild beim World Press Photo Award, und dabei galten auch diese von Adobes Anwendungen eingetragenen Metadaten als Indizien. Sie waren allerdings noch zu unpräzise und wurden von einigen missverstanden: Es war zwar eine Kombination aus drei Bildern, doch waren das drei unterschiedlich entwickelte Versionen derselben Raw-Datei.

          Wenn es um die bildende Kunst geht, und insbesondere um mehrere Jahrhunderte alte Werke, ist die Erforschung der Provenienz natürlich schwieriger. Museen beschäftigen Mitarbeiter, die sich um nichts anderes kümmern, als die Leerstellen in der Provenienz von Werken aus ihrem Bestand zu schließen. Vieles lässt sich auch nicht letztgültig klären. So ist nach wie vor unklar, ob der von manchen Leonardo zugeschriebene Salvator mundi wirklich von ihm stammt oder von einem seiner Schüler, und so oder so vielleicht zu einem großen Teil das Werk der Restauratorin Dianne Dwyer Modestini ist. Den saudischen Kronprinzen hat es nicht daran gehindert, 382 Millionen Euro dafür auszugeben, aber das ist sein Problem.

    1. Wo genau steht das?

      In Artikel 3 (Begriffsbestimmungen) Absatz 4 steht:

      „Betreiber“ eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet, es sei denn, das KI-System wird im Rahmen einer persönlichen und nicht beruflichen Tätigkeit verwendet;

      Damit sollten Hobby Anwender aussen vor sein, anderenfalls wäre Artikel 3 Absatz 4 doch widersprüchlich.

      1. Ich versteh das so, dass Sie Bilder, die Sie für sich selbst, also für den Eigenbedarf generieren, nicht kennzeichnen müssen. Aber Posten auf Social Media ist nicht „persönlich“, sondern öffentlich, ganz gleich ob im Rahmen einer beruflichen Tätigkeit oder nicht.

      2. Die Ausschlusskriterien sind mit „und“ verknüpft, was landläufig bedeutet, dass beide Kriterien erfüllt sein müssen, damit man von der Regelung nicht betroffen ist. Nun sind Gesetzestexte zwar immer interpretationsfähig, und man könnte es darauf anlegen, gerichtlich, notfalls durch mehrere Instanzen, klären zu lassen, ob die eigene Interpretation nicht doch vertretbar ist, aber ich würde es nicht darauf ankommen lassen.

        1. Ich auch nicht- und weil es umgekehrt gar nicht rechtssicher leistbar ist, bin ich raus. Als reiner Hobby Portraitfotograf ist schon die DSGVO sehr unangenehm und nicht wirklich handelbar gewesen und jetzt gibt diese Regelung dem Ganzen noch den Rest.
          Ich verstehe und teile die jeweiligen Ziele- aber die Umsetzung erzeugt sehr viel Kollateralschäden.

  7. Das Ganze scheint mir in der Bearbeitungspraxis sehr kompliziert und Konflikt beladen zu werden. Am besten wäre ein Art „Adobe Lightroom Pure Version“ die sich nur auf die machbaren Bearbeitungen (gemäß Playbook) beschränkt.

Schreibe einen Kommentar

Bitte melden Sie sich an, um einen Kommentar zu schreiben.

Schaltfläche "Zurück zum Anfang"