BlogHintergrund

Das Auge des Staates: Palantirs Gesichtserkennung im deutschen Behördenalltag

Vor nicht allzu langer Zeit waren seherische Fähigkeiten noch mythischen Artefakten wie dem Palantir aus Tolkiens Welt vorbehalten – jenen Kristallkugeln, die einen Blick über weite Distanzen gewährten, aber auch den Willen ihres Nutzers korrumpieren konnten. Heute trägt diese Fähigkeit denselben Namen, manifestiert sich jedoch als Software eines amerikanischen Datenanalyse-Unternehmens mit notorisch engen Verbindungen zu US-Geheimdiensten. Und dieser moderne Seherstein hat sich still und leise in den deutschen Sicherheitsapparat eingenistet, wo amerikanische Überwachungslogik auf deutsche Rechtstradition trifft – ein Zusammenprall, dessen gesellschaftliche Sprengkraft wir erst zu erahnen beginnen.

Die Domestizierung des Sehersteins

Die Einführung von Palantirs Software in Deutschland gleicht einem Lehrstück der schrittweisen Normalisierung. In Hessen firmiert sie unter dem harmlosen Namen „HessenData“, in Nordrhein-Westfalen als „DAR“ und in Bayern als „VeRA“. Diese sprachliche Eindeutschung wirkt wie der Versuch, einem Werkzeug mit transatlantischem Überwachungs-Stammbaum einen heimischen Anstrich zu verpassen. Doch der Name allein ändert nichts an der Funktionsweise. Ursprünglich zur Bekämpfung von Terrorismus und schwerster Kriminalität legitimiert, hat sich der Anwendungsbereich schleichend ausgeweitet. Das Prinzip „Fuß in der Tür“ in Reinform: War der Einsatz anfangs noch an hohe Hürden geknüpft, werden heute auch Daten zu Einbrüchen, minderschweren Delikten und sogar von unbeteiligten Unfallzeugen durch die Analyse-Algorithmen geschleust. Die Ausnahme wird zur Regel, der Notfall zum Alltag.

Der Sirenengesang der Effizienz

Zugegeben, die Verlockung ist groß. Die Befürworter der Technologie verweisen auf beeindruckende Erfolge: In Indien half Gesichtserkennung, Tausende vermisste Kinder aufzuspüren. In den USA führte sie zur Aufdeckung von Zwangsarbeit und zur Entlastung Unschuldiger. Die Vorstellung, aus Videoströmen in Echtzeit potenzielle Gefährder zu isolieren, komplexe Täter-Opfer-Netzwerke aufzudecken und Ermittlungsansätze zu generieren, die früher monatelange Aktenarbeit erforderten, klingt wie die Erfüllung eines feuchten Traums der Strafverfolgung. Es ist der Sirenengesang der Effizienz, der verspricht, das Chaos der analogen Welt in die geordnete Struktur von Datenbanken zu überführen. Ein Versprechen, das so verlockend ist, dass man die Risiken nur allzu gerne ausblendet.

Algorithmische Voreingenommenheit und der Kollateralschaden

Doch die Magie hat einen hohen Preis, der sich in den Fehlerquoten der Systeme manifestiert. Eine vielzitierte Studie des National Institute of Standards and Technology (NIST) offenbarte eine dramatische Unwucht: Während die Falsch-Positiv-Rate bei hellhäutigen Männern bei unter einem Prozent lag, stieg sie bei dunkelhäutigen Frauen auf fast 35 Prozent. Ein System, das mehr als jede dritte Person einer bestimmten demografischen Gruppe fälschlicherweise identifiziert, ist kein neutrales Werkzeug, sondern eine Maschine zur Reproduktion und Verstärkung gesellschaftlicher Vorurteile.

Diese algorithmische Voreingenommenheit ist keine technische Petitesse, sondern ein fundamentales Gerechtigkeitsproblem. Jeder „False Positive“ ist ein potenzieller Anfangsverdacht gegen eine unschuldige Person, eine mögliche Vorverurteilung durch die Maschine. Die Technologie schafft eine neue Form des Kollateralschadens, bei dem Bürger allein aufgrund ihrer biometrischen Merkmale ins Visier geraten können. Die Überwachung trifft eben nicht alle gleich, sondern jene am härtesten, deren Gesichter von der Norm des Trainingsdatensatzes abweichen.

Der rechtliche Drahtseilakt

Dieser technologischen Schieflage steht ein deutsches Rechtssystem gegenüber, das der automatisierten Datenanalyse enge Grenzen setzt. Das Bundesverfassungsgericht hat in mehreren Urteilen klargestellt, dass der Einsatz solcher Instrumente nur zur Abwehr konkreter Gefahren für überragend wichtige Rechtsgüter zulässig ist. Die Karlsruher Richter fordern präzise gesetzliche Regelungen, die Art und Umfang der Daten, die Analysemethoden und die Eingriffsschwellen unmissverständlich definieren.

Gleichzeitig treibt das Bundesinnenministerium die bundesweite Einführung einer Software voran, deren Einsatz in Hessen und NRW bereits Gegenstand erfolgreicher Verfassungsbeschwerden war. Es ist ein rechtlicher Drahtseilakt, bei dem die Exekutive die vom höchsten Gericht gezogenen roten Linien beständig austestet. Besonders heikel ist dabei die Tatsache, dass nicht nur die Daten von Verdächtigen, sondern auch die von Zeugen, Opfern und Hinweisgebern in die Analyse einfließen. Damit verkehrt sich der Schutzgedanke ins Gegenteil: Jeder, der mit der Polizei in Kontakt tritt, wird selbst zum potenziellen Datenpunkt in einem riesigen Beziehungsgeflecht, dessen Verbindungen nur der Algorithmus kennt.

Plädoyer für die digitale Souveränität

Die entscheidende Frage ist jedoch, ob wir uns diesem amerikanischen Ansatz alternativlos ergeben müssen. Die Antwort lautet: Nein. Längst gibt es europäische und deutsche Unternehmen, die vergleichbare Analysewerkzeuge anbieten. Firmen wie Almato, One Data oder das französische ChapsVision werben mit digitaler Souveränität, Transparenz und der Einhaltung der europäischen Datenschutz-Grundverordnung als Kernversprechen.

Der entscheidende Vorteil dieser Alternativen liegt nicht nur darin, dass die Daten den Kontinent nicht verlassen und dem Zugriff durch US-Behörden via CLOUD Act entzogen sind. Er liegt vor allem in der Möglichkeit, Systeme von Grund auf nach unseren eigenen rechtlichen und ethischen Maßstäben zu konzipieren. Anstatt eine amerikanische Blackbox nachträglich an deutsches Recht anzupassen, könnten wir Werkzeuge entwickeln, deren Architektur Prinzipien wie Datensparsamkeit und Zweckbindung bereits implementiert hat („Privacy by Design“). Es wäre die Chance, Sicherheit und Freiheit nicht als Gegensätze zu verhandeln, sondern technologisch miteinander zu versöhnen.

Wenn wir schon dem dritten Auge des Staates erlauben, auf uns zu blicken, dann sollten wir zumindest die Optik selbst schleifen. Die Entscheidung für oder gegen Palantir ist keine rein technische, sondern eine zutiefst politische. Es ist die Wahl zwischen der Übernahme einer fremden Überwachungsphilosophie und dem Bekenntnis zur Entwicklung eigener, rechtsstaatlich kontrollierter Instrumente. In einer Demokratie, die ihre Grundrechte ernst nimmt, kann die Antwort nur lauten: Wenn schon Überwachung, dann nach unseren Regeln. Und vielleicht ist ein System, das von einem deutschen Datenschutzbeauftragten mit einem 200-seitigen Regelwerk in der Hand argwöhnisch beäugt wird, am Ende doch die sicherere Wahl als eine magische Kristallkugel aus dem Silicon Valley.

Christoph Künne

Christoph Künne, von Haus aus Kulturwissenschaftler, forscht seit 1991 unabhängig zur Theorie und Praxis der Post-Photography. Er gründete 2002 das Kreativ-Magazin DOCMA zusammen mit Doc Baumann und hat neben unzähligen Artikeln in europäischen Fachmagazinen rund um die Themen Bildbearbeitung, Fotografie und Generative KI über 20 Bücher veröffentlicht.

Schreibe einen Kommentar

Bitte melden Sie sich an, um einen Kommentar zu schreiben.

Das könnte Dich interessieren
Schließen
Schaltfläche "Zurück zum Anfang"