Wenn Gesichtserkennung KI-Fehler macht: Wie eine Großmutter zur Hauptdarstellerin im Justizthriller wurde

Es gibt Geschichten, die klingen so absurd, dass man sie Hollywood nicht einmal als B-Movie durchgehen lassen würde. Doch manchmal schreibt das Leben. Oder einfach die Technik die haarsträubendsten Drehbücher. Angela Lipps, 50 Jahre alt, fünffache Großmutter aus Tennessee, hätte sich vermutlich nie träumen lassen, dass sie eines Tages die Hauptrolle in einem Justizdrama spielen würde, das irgendwo zwischen Science-Fiction und bitterer Sozialstudie pendelt. Ihr Vergehen? Sie hatte das Pech, ein Gesicht zu besitzen, das einer Bankbetrügerin in Fargo, North Dakota, entfernt ähnelte; zumindest nach Meinung einer Gesichtserkennungssoftware und eines besonders kreativen Detectives, der „Gesichtsmerkmale, Körperbau, Frisur und Farbe“ für ausreichend hielt, um einen Haftbefehl zu beantragen.
So kam es, dass am 14. Juli 2025 schwer bewaffnete US Marshals vor ihrer Haustür standen, während sie gerade vier Enkelkinder hütete. Die Szene hätte auch aus einem schlechten Krimi stammen können: Die Großmutter, die nie in ihrem Leben in North Dakota, also am Ort des Verbrechens war, wird als gefährliche Betrügerin verhaftet und ohne weitere Nachfrage ins Gefängnis gesteckt. 108 Tage verbringt sie in Tennessee hinter Gittern, bevor sie in Handschellen in ein Flugzeug nach North Dakota gesetzt wird. Es war wohl der erste Flug in ihrem Leben. Am Ziel wartet ein weiteres Kapitel im kafkaesken Justizroman: Noch einmal Wochen in Haft, bis ein Anwalt namens Jay Greenwood auf die Idee kommt, einfach mal die Bankauszüge zu prüfen. Die zeigen: Angela Lipps war zur Tatzeit 1.200 Meilen entfernt, in Tennessee, und bestellte Pizza statt Bankkonten zu plündern.
Am Heiligabend 2025 wird sie entlassen. Keine Entschuldigung, kein Fahrgeld, kein Happy End. Ihr Zuhause, ihr Auto und sogar ihr Hund sind inzwischen weg – die Rechnungen konnte sie aus dem Gefängnis heraus nicht bezahlen. Die Polizei von Fargo? Schweigt. Der scheidende Polizeichef David Zibolski bedankt sich auf seiner Abschiedspressekonferenz artig für die Nachfrage, will aber „heute nicht darüber sprechen“. Die Rückreise nach Tennessee bezahlt ein freundlicher Anwalt aus eigener Tasche. Willkommen zurück im echten Leben.
Wer jetzt denkt, das sei ein Einzelfall, unterschätzt die Kreativität von Algorithmen und die Trägheit des Justizsystems. Gesichtserkennung gilt als Wunderwaffe der Polizeiarbeit, doch sie ist so zuverlässig wie ein Wetterbericht im April. Besonders für Menschen, die nicht dem Standardprofil der Softwareentwickler entsprechen – also für Frauen, Dunkelhäutige oder eben Großmütter aus Tennessee. Studien zeigen: Öffentliche Verteidiger in den USA jonglieren mit bis zu 19.000 Fällen pro Jahr, manchmal bleiben ihnen sieben Minuten pro Mandant. Wer Geld hat, engagiert einen Privat-Anwalt, der die KI-Treffer kritisch prüft und notfalls einen eigenen Gutachter bestellt. Wer keines hat, wartet – und verliert im Zweifel alles. „Wenn Lipps mehr Geld gehabt hätte, hätte sie vermutlich nie eine Gefängniszelle von innen gesehen. Die Armen müssen sich auf öffentliche Verteidiger verlassen“, sagt ein Experte.
Angela Lipps ist kein Einzelfall, sondern ein Symbol. Ein Symbol dafür, wie Technik, die uns angeblich schützt, zum Brandbeschleuniger sozialer Ungleichheit werden kann. Die KI erkennt alles – nur nicht, ob jemand das nötige Kleingeld für Gerechtigkeit besitzt. Die Justiz ist im Zeitalter der Algorithmen nicht blinder geworden, sondern sieht manchmal einfach nur auf den Kontostand. Wer sich einen eigenen Anwalt leisten kann, wird schneller aus dem digitalen Irrgarten befreit. Wer nicht, bleibt im System stecken – und verliert nicht nur Zeit, sondern oft auch das, was das Leben lebenswert macht.
Angela Lipps arbeitet inzwischen mit Anwälten an einer Zivilklage. Das ist die positive Seite der öffentlichen Wahrnehmung des Falls. Ob sie je eine Entschuldigung oder gar Entschädigung bekommt, steht in den Sternen. Die KI hat ihr Gesicht erkannt, aber nicht ihre Geschichte. Vielleicht ist das die eigentliche Tragik: Im Zeitalter der künstlichen Intelligenz entscheidet nicht der Algorithmus über Schuld und Unschuld, sondern das alte Spiel von Geld und Klasse. Gerechtigkeit gibt es auch heute noch – sie kommt nur unterschiedlich schnell, je nachdem, wie viel man sich leisten kann.
Und so bleibt die Frage: Wer schützt uns eigentlich vor der Technik, wenn die Technik uns nicht richtig unterscheiden kann? Vielleicht ist es an der Zeit, dass wir nicht nur die Algorithmen, sondern auch unsere Vorstellung von Gerechtigkeit neu programmieren.

