Meta KI-Training: Warum Ihr Widerspruch nur bedingt schützt

Der digitale Raum ist ein ständiges Geben und Nehmen – wir teilen Inhalte, und Plattformen nutzen diese auf vielfältige Weise. Doch wenn es um das Training Künstlicher Intelligenz geht, betreten wir sensibles Terrain. Meta, der Konzern hinter Facebook und Instagram, plant ab dem 27. Mai 2025, auch in der EU Nutzerdaten explizit für das Training seiner KI-Modelle, bekannt als Llama, zu verarbeiten. Das wirft Fragen auf, insbesondere da der angebotene Widerspruchsmechanismus Lücken aufweist, die gerade Fotografen und Bildbearbeiter hellhörig machen sollten.
Der Wettlauf um die KI-Dominanz
Meta steht im harten Wettbewerb mit Giganten wie Google, OpenAI und Anthropic. Die hauseigenen Llama-Modelle sind Metas Antwort in diesem Rennen und sollen durch eine quasi Open-Source-Lizenz weite Verbreitung finden. Gleichzeitig wird die „Meta AI“, die bereits in Facebook, Instagram, Messenger und WhatsApp integriert ist und laut Mark Zuckerberg bald die Marke von einer Milliarde Nutzern knacken soll, mit diesen Modellen gespeist. Um die Leistungsfähigkeit dieser Modelle kontinuierlich zu verbessern und mit der Konkurrenz Schritt zu halten, greift Meta nun auch auf den Datenschatz seiner europäischen Nutzerbasis zu.
Der Konzern betont zwar, dass für das KI-Training ausschließlich öffentliche Inhalte wie Beiträge, Fotos samt Bildunterschriften oder Kommentare herangezogen werden – private Nachrichten seien tabu. Nutzern wird zudem die Möglichkeit eingeräumt, dieser Verarbeitung ihrer Daten aktiv zu widersprechen. Wer diesen Schritt geht, dessen eigene öffentlichen Interaktionen und Informationen sollen laut Meta zukünftig nicht mehr für die Entwicklung der generativen KI-Modelle genutzt werden. Ein wichtiger Schritt, möchte man meinen, doch die Sache hat einen Haken.
Das Opt-Out-Dilemma: Wenn der Widerspruch ins Leere läuft
Die Crux liegt im Detail, wie so oft bei Datenschutzbestimmungen. Auch wenn Sie der Verarbeitung Ihrer Daten widersprochen haben, können Informationen über Sie dennoch in die Trainingsdatensätze von Meta AI einfließen. Wie kann das sein? Meta erklärt dies in den weiterführenden Informationen zum Widerspruchsrecht: Informationen über Sie können weiterhin verarbeitet werden, wenn diese von anderen Nutzern öffentlich geteilt werden.
Konkret bedeutet das: Erscheinen Sie auf einem Foto, das ein anderer Nutzer auf Facebook oder Instagram postet, oder werden Sie in einem öffentlichen Beitrag oder einer Bildunterschrift einer anderen Person erwähnt, können diese Daten trotz Ihres persönlichen Widerspruchs für das KI-Training genutzt werden. Ihr individuelles Opt-Out bezieht sich also primär auf die Inhalte, die Sie selbst aktiv auf den Plattformen publizieren. Sobald Sie jedoch Teil des öffentlichen Inhalts anderer werden, greift Ihr Widerspruch nicht mehr.
Was bedeutet das für Kreative?
Für Fotografen, Bildbearbeiter und alle, die visuelle Inhalte produzieren und teilen, ergeben sich daraus spezifische Implikationen. Wer beispielsweise Porträts oder Eventfotografie betreibt und diese auf Instagram oder Facebook zeigt, liefert potenziell Trainingsdaten – nicht nur durch die eigenen Bilder, sondern auch durch die abgebildeten Personen, selbst wenn diese der Datennutzung widersprochen haben. Die Metadaten, Bildunterschriften und Kommentare, die oft kontextuelle Informationen liefern, fließen ebenfalls mit ein.
Die Grenze zwischen „meinen Daten“ und „Daten über mich“ verschwimmt hier empfindlich. Während Meta argumentiert, nur öffentliche Daten zu nutzen, stellt sich die Frage nach der informationellen Selbstbestimmung neu, wenn der eigene Widerspruch durch die Handlungen Dritter unterlaufen werden kann. Für Personen des öffentlichen Lebens ist dies besonders relevant, doch im Grunde kann es jeden treffen, der im sozialen Netzwerk eines anderen sichtbar wird.
Die Situation verdeutlicht einmal mehr die Komplexität der Datennutzung im Zeitalter der KI. Während Unternehmen wie Meta bestrebt sind, ihre Modelle mit möglichst diversen und umfangreichen Datensätzen zu füttern, um deren Leistungsfähigkeit zu steigern, stehen Nutzer vor der Herausforderung, die Kontrolle über ihre digitalen Spuren zu behalten. Der aktuelle Mechanismus von Meta zeigt, dass ein vollständiger Schutz durch ein einfaches Opt-Out nicht gewährleistet ist, sobald die eigenen Informationen im öffentlichen Raum der Plattformen durch Dritte zirkulieren. Für Kreative bedeutet dies, noch bewusster abzuwägen, welche Inhalte sie teilen und in welchem Kontext – auch wenn die letztendliche Kontrolle über die Verbreitung und Nutzung durch andere begrenzt bleibt. Die Entwicklung unterstreicht die Notwendigkeit transparenter und nachvollziehbarer Prozesse bei der Verwendung von Nutzerdaten für KI-Systeme, gerade wenn es um visuelle und persönliche Informationen geht.