BlogHintergrundSoftware

Deepfake, Gesetz und virtuelle Vergewaltigung: Warum ein Verbot von Nacktbildgeneratoren nicht reicht

Wer glaubt, dass digitale Gewalt nur ein Problem für Influencerinnen und Prominente ist, hat vermutlich noch nie erlebt, wie sich das eigene Gesicht plötzlich in fremden, schamlosen Bildern wiederfindet – und das Internet lacht. Willkommen im Zeitalter der virtuellen Vergewaltigung.

Collien Fernandes und das Täterparadies

Man stelle sich vor: Man wacht auf, scrollt durch das Handy und entdeckt, dass das eigene Gesicht in sozialen Netzwerken Dinge tut, die man selbst nie getan hat. Collien Fernandes, Schauspielerin und Moderatorin, musste genau das erleben. Über Jahre hinweg tauchten unter ihrem Namen Fake-Profile auf, die mit Deepfake-Bildern und -Videos gefüllt waren: täuschend echt, pornografisch, teils KI-generiert und an Männer aus ihrem Umfeld verschickt. Ihr Ex-Mann soll sogar mit einer KI-Stimme, die ihrer nachempfunden war, Telefonsex-Gespräche geführt haben. Fernandes erstattete Anzeige in Deutschland. Die Antwort der Staatsanwaltschaft: keine ausreichenden Ermittlungsansätze, Verfahren eingestellt. Deutschland, so Fernandes, sei ein „absolutes Täterparadies“. Sie lebt in Spanien, wo die Gesetze gegen digitale Gewalt schärfer sind. Dort laufen die Ermittlungen noch.

Virtuelle Vergewaltigung: Ein Begriff mit Geschichte

Der Begriff „virtuelle Vergewaltigung“ klingt zunächst nach Übertreibung, ist aber älter als viele denken. Schon in den frühen 1990er Jahren, als das Internet noch aus Text und Fantasie bestand, wurden in Online-Welten wie LambdaMOO Nutzerinnen durch Programme zu sexuellen Handlungen gezwungen. Zwar „nur“ digital, aber mit realen psychischen Folgen. Heute, drei Jahrzehnte später, ist der Begriff aktueller denn je: KI-generierte Bilder und Deepfake-Pornografie machen es möglich, Menschen mit ein paar Klicks zu entblößen und so zu erniedrigen. Das Strafrecht bleibt im Körperlichen verhaftet. Vergewaltigung ist dort eine Tat mit physischer Komponente. Digitale Übergriffe, so real die seelischen Schäden auch sind, fallen im Hinblick auf den Tatbestand der Vergewaltigung durchs Raster. Der Begriff „virtuelle Vergewaltigung“ ist politisch aufgeladen, mobilisiert, fordert Schutz. Doch je unschärfer er verwendet wird, desto größer die Gefahr, dass er zur Rechtfertigung von Überregulierung taugt – und am Ende mehr schadet als nützt.

Die EU will Nacktbildgeneratoren verbieten – und trifft damit auch die Falschen

Die Reaktion der Politik? Die Ausschüsse für Bürgerrechte (LIBE) und Binnenmarkt (IMCO) im Europäischen Parlament wollen KI-Systeme, die Nacktbilder oder sexuell explizite Bilder realer Personen ohne deren Einwilligung erzeugen können, im Rahmen des AI Acts als verbotene Anwendungen einstufen. Das klingt nach konsequentem Schutz: Kein Entwickeln, kein Einsetzen, kein Nutzen solcher Systeme mehr in der EU. Doch wie unterscheidet man einen „Nacktbildgenerator“ von einem ganz normalen Bildbearbeitungswerkzeug? Jeder Fotograf weiß: Die Grenze zwischen Kunst, Medizin, Aufklärung und Missbrauch ist fließend. Ein pauschales Verbot würde auch legitime Anwendungen treffen. Und wie will man Open-Source-Modelle verbieten, die längst frei verfügbar sind? Kritiker schlagen vor, lieber auf Einwilligungsmechanismen, Wasserzeichen, Rückverfolgbarkeit und Meldepflichten für KI-Anbieter zu setzen. Denn ein Verbot, das technisch nicht durchsetzbar ist, bleibt Symbolpolitik.

Was das Recht schon heute kann – und warum es trotzdem nicht reicht

Wer meint, das Problem liege im Fehlen von Gesetzen, irrt. Das Recht am eigenen Bild schützt auch KI-generierte Bildnisse, wenn die Person erkennbar ist, egal ob das Bild fotografisch oder synthetisch entstanden ist. Das allgemeine Persönlichkeitsrecht ermöglicht zivilrechtliche Klagen auf Unterlassung, Löschung und Geldentschädigung. Die DSGVO schützt die Verarbeitung personenbezogener Daten wie Gesicht und Stimme. Der Digital Services Act verpflichtet Plattformen, nach Hinweis rechtswidrige Inhalte zu löschen. Und der § 184 StGB erfasst die Verbreitung pornografischer Inhalte, auch KI-generierter. Das eigentliche Problem ist nicht die Gesetzeslage, sondern die Konsequenz der Durchsetzung: Strafanzeigen werden eingestellt, Ermittler sind überlastet, Plattformen sitzen im Ausland, Täter bleiben anonym. Deutschland beweist täglich an verschiedensten Stellen, dass man mit vorhandenen Werkzeugen auch nichts tun kann, wenn man nicht will. Die Schutzlücke liegt weniger im Gesetzbuch als im Alltag der Strafverfolgung.

Was besser wäre als ein Verbot

Statt pauschaler Verbote braucht es eine konsequente Durchsetzung des bestehenden Rechts. Ermittlungsbehörden müssten besser ausgestattet, spezialisiert und international vernetzt werden. Wo echte Lücken bestehen, etwa bei der Herstellung sexualisierter Deepfakes, braucht es gezielte, chirurgische Gesetzesänderungen, nicht den Holzhammer. Technische Lösungen wie verpflichtende Wasserzeichen, Standards zur Erkennung von KI-Inhalten und Meldepflichten für Anbieter könnten helfen, Missbrauch zu erschweren. Plattformhaftung muss dann aber auch tatsächlich greifen, nicht nur auf dem Papier. Und weil die meisten Deepfake-Portale in Ländern sitzen, die sich um EU-Recht wenig scheren, bleibt internationale Kooperation unverzichtbar. Wer glaubt, mit einem EU-Verbot allein das Problem zu lösen, unterschätzt etwas weltfremd die Kreativität der Täter und die Trägheit der Bürokratie.

Der digitale Omnibus – oder: Wie man Grundrechte im Vorbeifahren schwächt

Während einige Ausschüsse Nacktbildgeneratoren verbieten wollen, plant die EU-Kommission einen „digitalen Omnibus“: Ein Gesetzespaket, das Änderungen an DSGVO, KI-Verordnung, Cybersicherheitsrecht und Datenschutzrecht in einem einzigen Verfahren bündelt. Was nach Vereinfachung klingt, ist ein parlamentarischer Taschenspielertrick. Wer 154 Änderungen in ein Gesetz packt, kann tiefgreifende Einschnitte in Grundrechte „unter dem Radar“ durchsetzen. Der Chaos Computer Club warnt vor Aushöhlung digitaler Rechte, netzpolitik.org spricht vom „größten Rückschritt für digitale Grundrechte in der Geschichte der EU“. Konkret drohen: Schwächung der DSGVO-Schutzdefinitionen, Erlaubnis zur Verarbeitung personenbezogener Daten für KI-Training ohne Einwilligung, Einführung des „legitimen Interesses“ als Rechtsgrundlage für Werbe-Tracking ohne Zustimmung, Aufweichung der Registrierungs- und Sanktionspflichten für Hochrisiko-KI. Das Paradoxe: Im selben Verfahren, in dem Nacktbildgeneratoren verboten werden sollen, werden die Grundrechtsschutzmechanismen, die solche Verbote absichern könnten, systematisch geschwächt.

Fazit: Zwischen digitaler Empörung und juristischer Präzision

Vielleicht ist das größte Problem also nicht die Technik, sondern unser Umgang mit ihr. Zwischen dem Wunsch nach schneller politischer Reaktion und der Notwendigkeit präziser, grundrechtssichernder Gesetzgebung bleibt die Frage: Wie viel Schutz ist zu viel – und wie viel zu wenig? Wer das Internet zum sicheren Ort machen will, muss mehr tun als nur neue Verbote zu fordern. Kurz: Aktionismus reicht nicht. Nachdenken wäre angebrachter.

Vielleicht wäre es ein Anfang, die alten Regeln endlich ernst zu nehmen. Oder, wie Collien Fernandes es ausdrücken würde: Deutschland muss aufhören, ein Täterparadies zu sein. Aber wie das gehen soll, wenn man Grundrechte im Omnibusverfahren gleich mit entsorgt, bleibt offen. Vielleicht ist das die eigentliche Ironie der digitalen Gegenwart.

Christoph Künne

Christoph Künne, von Haus aus Kulturwissenschaftler, forscht seit 1991 unabhängig zur Theorie und Praxis der Post-Photography. Er gründete 2002 das Kreativ-Magazin DOCMA zusammen mit Doc Baumann und hat neben unzähligen Artikeln in europäischen Fachmagazinen rund um die Themen Bildbearbeitung, Fotografie und Generative KI über 20 Bücher veröffentlicht.

Schreibe einen Kommentar

Bitte melden Sie sich an, um einen Kommentar zu schreiben.

Schaltfläche "Zurück zum Anfang"