BlogHintergrundSoftware

Deepfake, Gesetz und virtuelle Vergewaltigung: Warum ein Verbot von Nacktbildgeneratoren nicht reicht

Wer glaubt, dass digitale Gewalt nur ein Problem für Influencerinnen und Prominente ist, hat vermutlich noch nie erlebt, wie sich das eigene Gesicht plötzlich in fremden, schamlosen Bildern wiederfindet – und das Internet lacht. Willkommen im Zeitalter der virtuellen Vergewaltigung.

Collien Fernandes und das Täterparadies

Man stelle sich vor: Man wacht auf, scrollt durch das Handy und entdeckt, dass das eigene Gesicht in sozialen Netzwerken Dinge tut, die man selbst nie getan hat. Collien Fernandes, Schauspielerin und Moderatorin, musste genau das erleben. Über Jahre hinweg tauchten unter ihrem Namen Fake-Profile auf, die mit Deepfake-Bildern und -Videos gefüllt waren: täuschend echt, pornografisch, teils KI-generiert und an Männer aus ihrem Umfeld verschickt. Ihr Ex-Mann soll sogar mit einer KI-Stimme, die ihrer nachempfunden war, Telefonsex-Gespräche geführt haben. Fernandes erstattete Anzeige in Deutschland. Die Antwort der Staatsanwaltschaft: keine ausreichenden Ermittlungsansätze, Verfahren eingestellt. Deutschland, so Fernandes, sei ein „absolutes Täterparadies“. Sie lebt in Spanien, wo die Gesetze gegen digitale Gewalt schärfer sind. Dort laufen die Ermittlungen noch.

Virtuelle Vergewaltigung: Ein Begriff mit Geschichte

Der Begriff „virtuelle Vergewaltigung“ klingt zunächst nach Übertreibung, ist aber älter als viele denken. Schon in den frühen 1990er Jahren, als das Internet noch aus Text und Fantasie bestand, wurden in Online-Welten wie LambdaMOO Nutzerinnen durch Programme zu sexuellen Handlungen gezwungen. Zwar „nur“ digital, aber mit realen psychischen Folgen. Heute, drei Jahrzehnte später, ist der Begriff aktueller denn je: KI-generierte Bilder und Deepfake-Pornografie machen es möglich, Menschen mit ein paar Klicks zu entblößen und so zu erniedrigen. Das Strafrecht bleibt im Körperlichen verhaftet. Vergewaltigung ist dort eine Tat mit physischer Komponente. Digitale Übergriffe, so real die seelischen Schäden auch sind, fallen im Hinblick auf den Tatbestand der Vergewaltigung durchs Raster. Der Begriff „virtuelle Vergewaltigung“ ist politisch aufgeladen, mobilisiert, fordert Schutz. Doch je unschärfer er verwendet wird, desto größer die Gefahr, dass er zur Rechtfertigung von Überregulierung taugt – und am Ende mehr schadet als nützt.

Die EU will Nacktbildgeneratoren verbieten – und trifft damit auch die Falschen

Die Reaktion der Politik? Die Ausschüsse für Bürgerrechte (LIBE) und Binnenmarkt (IMCO) im Europäischen Parlament wollen KI-Systeme, die Nacktbilder oder sexuell explizite Bilder realer Personen ohne deren Einwilligung erzeugen können, im Rahmen des AI Acts als verbotene Anwendungen einstufen. Das klingt nach konsequentem Schutz: Kein Entwickeln, kein Einsetzen, kein Nutzen solcher Systeme mehr in der EU. Doch wie unterscheidet man einen „Nacktbildgenerator“ von einem ganz normalen Bildbearbeitungswerkzeug? Jeder Fotograf weiß: Die Grenze zwischen Kunst, Medizin, Aufklärung und Missbrauch ist fließend. Ein pauschales Verbot würde auch legitime Anwendungen treffen. Und wie will man Open-Source-Modelle verbieten, die längst frei verfügbar sind? Kritiker schlagen vor, lieber auf Einwilligungsmechanismen, Wasserzeichen, Rückverfolgbarkeit und Meldepflichten für KI-Anbieter zu setzen. Denn ein Verbot, das technisch nicht durchsetzbar ist, bleibt Symbolpolitik.

Was das Recht schon heute kann – und warum es trotzdem nicht reicht

Wer meint, das Problem liege im Fehlen von Gesetzen, irrt. Das Recht am eigenen Bild schützt auch KI-generierte Bildnisse, wenn die Person erkennbar ist, egal ob das Bild fotografisch oder synthetisch entstanden ist. Das allgemeine Persönlichkeitsrecht ermöglicht zivilrechtliche Klagen auf Unterlassung, Löschung und Geldentschädigung. Die DSGVO schützt die Verarbeitung personenbezogener Daten wie Gesicht und Stimme. Der Digital Services Act verpflichtet Plattformen, nach Hinweis rechtswidrige Inhalte zu löschen. Und der § 184 StGB erfasst die Verbreitung pornografischer Inhalte, auch KI-generierter. Das eigentliche Problem ist nicht die Gesetzeslage, sondern die Konsequenz der Durchsetzung: Strafanzeigen werden eingestellt, Ermittler sind überlastet, Plattformen sitzen im Ausland, Täter bleiben anonym. Deutschland beweist täglich an verschiedensten Stellen, dass man mit vorhandenen Werkzeugen auch nichts tun kann, wenn man nicht will. Die Schutzlücke liegt weniger im Gesetzbuch als im Alltag der Strafverfolgung.

Was besser wäre als ein Verbot

Statt pauschaler Verbote braucht es eine konsequente Durchsetzung des bestehenden Rechts. Ermittlungsbehörden müssten besser ausgestattet, spezialisiert und international vernetzt werden. Wo echte Lücken bestehen, etwa bei der Herstellung sexualisierter Deepfakes, braucht es gezielte, chirurgische Gesetzesänderungen, nicht den Holzhammer. Technische Lösungen wie verpflichtende Wasserzeichen, Standards zur Erkennung von KI-Inhalten und Meldepflichten für Anbieter könnten helfen, Missbrauch zu erschweren. Plattformhaftung muss dann aber auch tatsächlich greifen, nicht nur auf dem Papier. Und weil die meisten Deepfake-Portale in Ländern sitzen, die sich um EU-Recht wenig scheren, bleibt internationale Kooperation unverzichtbar. Wer glaubt, mit einem EU-Verbot allein das Problem zu lösen, unterschätzt etwas weltfremd die Kreativität der Täter und die Trägheit der Bürokratie.

Der digitale Omnibus – oder: Wie man Grundrechte im Vorbeifahren schwächt

Während einige Ausschüsse Nacktbildgeneratoren verbieten wollen, plant die EU-Kommission einen „digitalen Omnibus“: Ein Gesetzespaket, das Änderungen an DSGVO, KI-Verordnung, Cybersicherheitsrecht und Datenschutzrecht in einem einzigen Verfahren bündelt. Was nach Vereinfachung klingt, ist ein parlamentarischer Taschenspielertrick. Wer 154 Änderungen in ein Gesetz packt, kann tiefgreifende Einschnitte in Grundrechte „unter dem Radar“ durchsetzen. Der Chaos Computer Club warnt vor Aushöhlung digitaler Rechte, netzpolitik.org spricht vom „größten Rückschritt für digitale Grundrechte in der Geschichte der EU“. Konkret drohen: Schwächung der DSGVO-Schutzdefinitionen, Erlaubnis zur Verarbeitung personenbezogener Daten für KI-Training ohne Einwilligung, Einführung des „legitimen Interesses“ als Rechtsgrundlage für Werbe-Tracking ohne Zustimmung, Aufweichung der Registrierungs- und Sanktionspflichten für Hochrisiko-KI. Das Paradoxe: Im selben Verfahren, in dem Nacktbildgeneratoren verboten werden sollen, werden die Grundrechtsschutzmechanismen, die solche Verbote absichern könnten, systematisch geschwächt.

Fazit: Zwischen digitaler Empörung und juristischer Präzision

Vielleicht ist das größte Problem also nicht die Technik, sondern unser Umgang mit ihr. Zwischen dem Wunsch nach schneller politischer Reaktion und der Notwendigkeit präziser, grundrechtssichernder Gesetzgebung bleibt die Frage: Wie viel Schutz ist zu viel – und wie viel zu wenig? Wer das Internet zum sicheren Ort machen will, muss mehr tun als nur neue Verbote zu fordern. Kurz: Aktionismus reicht nicht. Nachdenken wäre angebrachter.

Vielleicht wäre es ein Anfang, die alten Regeln endlich ernst zu nehmen. Oder, wie Collien Fernandes es ausdrücken würde: Deutschland muss aufhören, ein Täterparadies zu sein. Aber wie das gehen soll, wenn man Grundrechte im Omnibusverfahren gleich mit entsorgt, bleibt offen. Vielleicht ist das die eigentliche Ironie der digitalen Gegenwart.

Christoph Künne

Christoph Künne, von Haus aus Kulturwissenschaftler, forscht seit 1991 unabhängig zur Theorie und Praxis der Post-Photography. Er gründete 2002 das Kreativ-Magazin DOCMA zusammen mit Doc Baumann und hat neben unzähligen Artikeln in europäischen Fachmagazinen rund um die Themen Bildbearbeitung, Fotografie und Generative KI über 20 Bücher veröffentlicht.

3 Kommentare

  1. Es gibt aber auch noch andere Persönlichkeitsrechte. Etwa die des Ex-Mannes von Fernandes, der die Vorwürfe bestreitet; es gilt die Unschuldvermutung bis zum Beweis des Gegenteils.. Nachdem der „Spiegel“ auf dem Niveau der Yellow Press mit seinem Bild auf dem Cover über den Fall geschrieben hatte, ist der angebliche „Täter“ erst mal unten durch. Man erinnere sich an den „Fall Kachelmann“ vor einigen Jahren – Riesen-Medienspektakel, am Ende Freispruch, aber das Image grundlegend versaut. Immer steht heimlich im Raum „Vielleicht war er’s ja doch“, und so nun auch jetzt.
    Wenn der Ex-Mann das gemacht hat, ist es ganz mies und gehört bestraft; aber darüber entscheidet nicht die Presse oder der Stammtisch, sondern Gerichte. Bereits die DSGVO ist weit übers Ziel hinausgeschossen, so dass Fotografen ständig „Schadenersatz“-Forderungen – worin besteht der Schaden eigentlich, wenn sich jemand auf einem normalen Foto entdeckt? – im Nacken haben. Dass Opfer besser geschützt werden müssen, ist unbestritten. Der neue Trend, dass Opfer immer recht haben, noch ehe klar ist, dass sie tatsächlich Opfer sind, ist höchst problematisch und rechtstaatsgefährdend.
    Da – anders als bei Deepfakes – die meisten Vergewaltigungen ujnd sexueller Missbrauch in den heimischen vier Wänden ohne Zeugen geschehen, steht Aussage gegen Aussage. Ich beneide die Richter nicht, die darüber entscheiden müssen …

    1. Wenn ich es richtig verstanden habe, sagt Christian Ulmen (oder sein Anwalt), er hätte keine Deepfakes hergestellt und/oder verbreitet. Das mag stimmen, scheint aber auch gar nicht der von Collien Fernandes erhobene Vorwurf zu sein. Nach ihren Aussagen geht es um Bilder und Videos, die angeblich sie selbst nackt und beim Sex zeigen sollten, in denen tatsächlich aber jemand anderes zu sehen ist – nur eben so, dass der Betrachter nicht eindeutig erkennen kann, um wen es sich in Wirklichkeit handelt.

      Das Thema sind also nicht Deepfakes, und übrigens wird hier auch das Recht am eigenen Bild kaum berührt, denn die Nacktbilder und -videos zeigten ja gar nicht Fernandes und waren wohl auch nicht KI-generiert. Echte oder täuschend echt erscheinende Bilder von ihr wurden nur als (für sich genommen harmlose) Profilfotos auf den Fake-Accounts verwendet. Das Thema scheint vielmehr vor allem Identitätsdiebstahl zu sein: Jemand hatte sich als Collien Fernandes ausgegeben, vermeintliche Bilder und Videos von ihr verbreitet und in der Rolle von Collien Fernandes mit Dritten interagiert. Von den Gesetzentwürfen, die nun diskutiert werden, wird so ein Tatbestand aber gar nicht unbedingt erfasst, da sie sich auf Deepfakes zu konzentrieren scheinen. Deepfakes sind aber nur eines von mehreren möglichen Mitteln zu einer solchen Tat.

      Wenn jemand einen anderen in Misskredit bringen will, könnte er ein Video generieren, das denjenigen in einer verfänglichen Situation zu zeigen scheint, und dieses den Medien zuspielen. Damit es glaubhaft wirkt, sollte die zu inkriminierende Person gut erkennbar sein, und Deepfakes wären ein geeignetes Mittel zu diesem Zweck. Wenn man es aber schafft, die Identität dieser Person vorzutäuschen und mit dieser gestohlenen Identität Videos zu verbreiten, sind die Anforderungen viel geringer. Wenn ich glaube, mit einer bestimmten Person zu interagieren, der ich vertraue, und mir diese Person vermeintliche Videos von sich schickt, bin ich automatisch auch geneigt, zu glauben, dass die Videos tatsächlich diese Person zeigen, ohne sie einer eingehenden Überprüfung zu unterziehen, die mir oft ja gar nicht möglich wäre – woher sollte ich denn wissen, wie beispielsweise Collien Fernandes nackt aussieht? (Nein, auch wenn sie in Filmen oder Fernsehserien scheinbar nackt aufgetreten sein sollte – keine Ahnung –, könnte es sich um ein Körperdouble gehandelt haben; die Fiktion ist ja nicht der Wahrhaftigkeit verpflichtet.) KI oder irgendwelche anderen neueren Technologien sind dann gar nicht erforderlich.

      Ganz gleich, welche Mittel eingesetzt werden, geht es jeweils darum, falsche Behauptungen über eine Person aufzustellen oder einen falschen Eindruck von dieser zu vermitteln. Man denke beispielsweise an das berühmt-berüchtigte Demonstrationsfoto, in dem neben anderen Jürgen Trittin zu sehen war, und das von der BILD durch den Beschnitt und durch suggestive aber irreführende Texte so präsentiert wurde, dass ein unkritischer Betrachter den Eindruck gewinnen konnte, Trittin hätte an einer gewalttätigen Demo teilgenommen und sei möglicherweise selbst gewalttätig geworden.

      Oder, um es noch weiter zu generalisieren: Die Sprachwissenschaft hat uns gelehrt, dass Sprechen auch Handeln ist und Äußerungen daher als Handlungen interpretiert werden müssen. Dasselbe gilt aber auch für die Präsentation von Bildern und Filmen. Im englischen Sprachraum gibt es den Kinderreim „Sticks and stones may break my bones, but words will never hurt me“. Das soll den Kindern Selbstvertrauen gegenüber Anfeindungen geben, aber es stimmt ja nicht: Auch Äußerungen können verletzende Handlungen sein, und nicht selten gehen sie physischer Gewalt voraus und bereiten sie vor. Manche Bilder und Filme haben ebensolche Konsequenzen, und daher können und sollten sie strafrechtlich relevant sein.

Schreibe einen Kommentar

Bitte melden Sie sich an, um einen Kommentar zu schreiben.

Schaltfläche "Zurück zum Anfang"