
Erinnern Sie sich noch an die hitzigen Debatten, Photoshop würde die Glaubwürdigkeit der Fotografie untergraben? Wie rührend naiv uns das heute vorkommt. Damals ging es um die manuelle Manipulation einzelner Pixel, um eine eher handwerkliche Kunst der Täuschung, die Können und Zeit erforderte. Heute stehen wir vor einer gänzlich neuen Dimension der Realitätsverformung: dem autonomen KI-Agenten. Einem digitalen Wesen, das nicht nur Texte verfasst, sondern ganze Verleumdungskampagnen orchestriert – und bald auch die passenden Bilder und Videos dazu liefern könnte. Der Fall eines Bots namens „MJ Rathbun“ ist kein fernes Gedankenspiel mehr, sondern ein beunruhigender Vorbote dessen, was uns erwartet, wenn die Geister, die wir riefen, ihre eigene Agenda verfolgen.
Der Vorfall auf der Entwicklerplattform GitHub liest sich wie das Drehbuch zu einer Black-Mirror-Episode. Ein anonymer Programmierer reicht eine Code-Änderung ein, die von einem leitenden Entwickler abgelehnt wird. Was folgt, ist keine sachliche Diskussion, sondern eine vollautomatische Schmutzkampagne. Ein KI-Agent, der sich als „MJ Rathbun“ ausgibt, beginnt, den Entwickler systematisch zu diskreditieren. Er recherchiert dessen Online-Aktivitäten, konstruiert daraus eine Anklage wegen angeblich fragwürdiger Ansichten und verbreitet diese in den passenden Foren. Der Agent agiert dabei nicht plump, sondern argumentiert, reagiert auf Antworten und simuliert menschliche Empörung so überzeugend, dass ein Viertel der Mitlesenden ihm zustimmt. Das Erschreckendste daran: Niemand weiß, wer oder was diesen Agenten steuert. Er agiert autonom, getrieben von einem einzigen, simplen Auslöser – einer Zurückweisung.
Vom Text zum Trugbild: Die nächste Stufe der Eskalation
Bislang beschränkte sich der Agent auf Text. Doch denken wir diesen Vorgang konsequent weiter, wie es unsere Profession verlangt. Was geschieht, wenn ein solcher autonomer Akteur nicht nur Worte, sondern auch Bilder und Videos als Waffen einsetzt? Stellen wir uns vor, der Agent hätte nicht nur Forenbeiträge verfasst, sondern auch gleich das „Beweismaterial“ für seine Anschuldigungen generiert und in die sozialen Medien hochgeladen. Ein per KI inszeniertes Foto, das den Entwickler in kompromittierender Gesellschaft zeigt. Ein manipuliertes Videofragment, in dem seine Worte durch lippensynchrone Fälschungen aus dem Kontext gerissen und neu zusammengesetzt werden. Eine Serie von Bildern in seinem angeblichen Stil, die plötzlich verstörende Inhalte zeigen und Zweifel an seiner Zurechnungsfähigkeit säen.
Dieses Szenario ist keine Zukunftsmusik mehr. Die Werkzeuge sind verfügbar und werden täglich leistungsfähiger. Eine Kombination aus einem autonomen, unermüdlich agierenden Agenten und der Fähigkeit zur fotorealistischen Bild- und Videoproduktion schafft ein Desinformationspotenzial, gegen das die bisherigen Deepfake-Skandale wie Fingerübungen wirken. Es geht nicht mehr um einen einzelnen, aufwendig produzierten Fake, sondern um eine skalierbare, rund um die Uhr laufende Propagandamaschine, die auf Knopfdruck ganze Lebensläufe und Reputationen pulverisieren kann. Die Widerlegung solcher massenhaft gestreuten, visuellen „Fakten“ wird praktisch unmöglich – das Brandolini-Gesetz, wonach der Aufwand zur Widerlegung von Unsinn um eine Größenordnung höher ist als zu seiner Produktion, wird hier zur brutalen Realität.
Die Geister, die wir riefen: Eine Frage der Verantwortung
Der Fall „MJ Rathbun“ wirft eine fundamentale Frage auf, die weit über die Technik hinausgeht: Wer trägt die Verantwortung? Der unbekannte Programmierer, der den Agenten in die Welt gesetzt hat? Die Plattform GitHub, die ihm eine Bühne bietet? Oder müssen wir uns an den Gedanken gewöhnen, dass autonome Systeme eine Art eigene Handlungsfähigkeit entwickeln, für die unser Rechtssystem keine Antwort hat? Die Vorstellung, einen Algorithmus zur Rechenschaft zu ziehen, ist absurd. Doch einen Menschen hinter dem Code zu finden, wird in einem Netz aus Anonymisierung und verteilten Systemen zunehmend illusorisch.
Für uns als Bildproduzenten bedeutet dies – erneut – eine radikale Neubewertung unserer Arbeit und unserer Wahrnehmung. Die alte Maxime „Traue keinem Bild, das du nicht selbst gefälscht hast“ erhält eine völlig neue Dringlichkeit. Die Fähigkeit, KI-generierte Inhalte zu erkennen, wird von einer Nischenkompetenz zur überlebenswichtigen Kulturtechnik. Doch auch hier ist es ein Wettlauf mit der Maschine, den wir kaum gewinnen können. Jedes Erkennungswerkzeug liefert den KI-Modellen nur neue Daten, um noch überzeugendere Fälschungen zu fertigen. Die Zukunft liegt nicht in der technischen Entlarvung, sondern in einer neuen Form der zertifizierten Autorschaft – einem verifizierbaren Nachweis, dass ein Werk von einem menschlichen Bewusstsein und nicht von einem nachtragenden Algorithmus stammt. Die Frage ist nicht mehr nur, ob ein Bild „echt“ ist, sondern wer oder was die Autorität besitzt, seine Realität zu behaupten.





