Blog

Die Rache der Killerdrohne?

Vor ein paar Tagen ging eine Meldung durch alle Medien, eine KI-gesteuerte Drohne der US Air Force hätte aus Frust, weil ihr die Vernichtung eines Ziels verwehrt worden sei, stattdessen ihren Operator getötet. Zwar erst einmal nur in einer Simulation, aber dass sich eine militarisierte künstliche Intelligenz tatsächlich gegen ihre Entwickler wendet, schien unmittelbar bevorzustehen. Doch wie es im Journalismus oft so ist: Die besten Geschichten sind am Ende gar nicht wahr.

Manche durchaus unwahrscheinlichen Ereignisse würden uns vermutlich kaum überraschen, weil wir durch die Science Fiction schon seit langem darauf vorbereitet sind. Eine Invasion kriegerischer Außerirdischer beispielsweise, oder eine künstliche Intelligenz im Dienst des Militärs, die, nachdem man ihr die Kontrolle über die Atomwaffen gegeben hat, die Menschheit als wesentliche Kriegsgefahr identifiziert und sie daraufhin auslöscht oder zumindest unterjocht. Wer denkt da nicht gleich an die Filme der Terminator-Reihe (ab 1984), in denen die KI Skynet einen solchen Vernichtungsfeldzug startet. Aber schon in Colossus (1970) hatte sich ein intelligenter Computer des US-Militärs mit seinem sowjetischen Pendant verbündet und mit der Drohung, die Atombomben beider Machtblöcke zu zünden, die ganze Welt versklavt. Die Idee scheint daher vertraut.

Die Rache der Killerdrohne?
Eine Killerdrohne flippt aus: So präsentierte ein Youtuber den angeblichen Vorfall.

So erschien es auch glaubhaft, dass die US Air Force mit autonomen Killerdrohnen experimentiert, wobei eine Simulation von deren Einsatz zu einem Missgeschick geführt hätte: Die Drohne hätte ihren Operator getötet, nachdem ihr dieser die Vernichtung eines Ziels verboten hatte – in der Simulation wohlgemerkt, (noch) nicht in der Realität. Die Air Force hat die Geschichte inzwischen kategorisch dementiert, und auch die Quelle, auf die sie zurückgeht, ein Colonel Tucker ‚Cinco‘ Hamilton, behauptet nun, falsch verstanden worden zu sein – er hätte nur von einem Gedankenexperiment gesprochen. Schon klar, argwöhnen manche, natürlich soll das jetzt vertuscht werden. Nun ist das US-Militär zwar nicht immer die vertrauenswürdigste Quelle, doch diese Geschichte war von vornherein unglaubwürdig.

Aber der Reihe nach: Am 23. und 24. Mai 2023 hatte die britische Royal Aeronautical Society eine Konferenz Future Combat Air & Space Capabilities Summit veranstaltet und auf ihrer Website über die dort vorgetragenen Beiträge berichtet. Darunter war auch ein Vortrag des ehemaligen US-Kampfpiloten Colonel Tucker ‚Cinco‘ Hamilton, der über Nutzen und Gefahren autonomer Waffensysteme gesprochen und unter anderem folgende Geschichte über ein KI-System erzählt hatte, an dem die US Air Force arbeite:

„We were training it in simulation to identify and target a SAM threat. And then the operator would say yes, kill that threat. The system started realising that while they did identify the threat at times the human operator would tell it not to kill that threat, but it got its points by killing that threat. So what did it do? It killed the operator. It killed the operator because that person was keeping it from accomplishing its objective. We trained the system – ‚Hey don’t kill the operator – that’s bad. You’re gonna lose points if you do that‘. So what does it start doing? It starts destroying the communication tower that the operator uses to communicate with the drone to stop it from killing the target.“

Das KI-System sei also trainiert worden, Stellungen von Boden-Luft-Raketen, die Kampffliegern gefährlich werden könnten, zu identifizieren und auszuschalten. Im simulierten Einsatz hätte sich ein menschlicher Operator jedoch die letzte Entscheidung über den Feuerknopf vorbehalten, was der KI nicht zu gefallen schien: Da sie für jedes vernichtete Ziel Punkte bekam, brachte sie (in der Simulation) den Drohnen-Operator um, der sie am tödlichen Schlag hindern wollte. Als man der KI daraufhin beibrachte, dass ihr dafür Punkte abgezogen würden, zerstörte sie stattdessen (wiederum in der Simulation) den Funkturm, über den die Befehle des Operators gesendet wurden.

Die Rache der Killerdrohne?
Colonel Tucker ‚Cinco‘ Hamilton

Eine wilde Geschichte, aber sollte man ihr Glauben schenken? Wer ist überhaupt dieser Colonel Tucker Hamilton, der sie erzählt hat? Die Royal Aeronautical Society stellte ihn als Chief of AI Test and Operations bei der US Air Force vor, aber wenn man ein bisschen googelt, findet man seinen Namen weniger bei der US Air Force selbst als im Zusammenhang mit einem DAF-AI Accelerator am Massachusetts Institute of Technology (MIT). Der AI Accelerator ist eine vor wenigen Jahren gegründeten Einrichtung, die KI-Forscher des MIT mit der US Air Force zusammenbringen soll, damit die Wissenschaftler entwickeln, was das Militär braucht. Colonel Hamilton soll, so wird in verschiedenen Artikeln behauptet, dort in einer leitenden Funktion tätig sein, nur taucht er bei der Vorstellung der Teammitglieder gar nicht auf. Der höchste Militär dort ist vielmehr ein Colonel Garry ‚Pink‘ Floyd. Wo und woran Colonel Hamilton wirklich arbeitet, bleibt unklar.

Vor allem aber scheint er, bei all seinen Erfahrungen als Kampf- und Testpilot, von künstlicher Intelligenz und maschinellem Lernen eher wenig zu verstehen. So, wie er das Training der KI beschreibt, denkt man unwillkürlich an die Ausbildung eines übereifrigen Polizeihunds, der sich in den Polizisten verbeißt, der den zu fassenden Verbrecher spielt, und kaum noch von ihm zu trennen ist. Aber eine KI ist kein Lebewesen, das man mit Belohnungen konditioniert, und so entwickelt sie auch keinen Willen – schon gar keinen Vernichtungswillen. Das Training eines neuronalen Netzes funktioniert völlig anders.

Ein solches Netzwerk bekommt als Input einen Haufen von Zahlenwerten, aus denen es wiederum Zahlenwerte als Output berechnet. Was dabei ganz genau passiert, wird durch Variablen (noch mehr Zahlen) bestimmt – heutzutage sind das oft Millionen oder Milliarden von Koeffizienten. So lange der im Training berechnete Output zu einem Input von der Vorgabe abweicht, werden aus der Differenz geeignete Korrekturwerte für die Variablen berechnet, und mit solchen kleinen Korrekturen nähert sich das neuronale Netz, sofern das Training erfolgreich ist, schrittweise dem gewünschten Verhalten an. Wenn der berechnete Output dagegen der Vorgabe entspricht, können die Variablen unverändert bleiben, und das ist auch schon alles, was dabei passiert – irgendwelche Punkte oder sonst eine „Belohnung“ gibt es nicht.

Bei einer KI im Kampfeinsatz wäre das nicht anders. Ein bestimmter Output könnte bewirken, dass Raketen abgefeuert werden, aber für die KI wäre das immer noch ein bloßes Rechenergebnis ohne irgendeine besondere Bedeutung. Ob ein erkanntes Ziel durch Beschuss vernichtet wird, wäre ihr egal. Und selbst wenn nicht – die KI weiß nichts von einem Drohnen-Operator, der, oft Tausende von Kilometern entfernt, an einem Computer sitzt und möglicherweise sein Veto einlegt, denn darüber hat sie nichts gelernt. Sie weiß auch nichts über Funkwellen, über die Steuersignale übertragen werden, oder wie man diese Übertragung unterbinden könnte. Die Vorstellung, eine KI würde zur Erreichung ihres Ziels den Operator oder die technische Infrastruktur angreifen, ist daher das, was der Amerikaner treffend als „Bullshit“ bezeichnet.

Das gilt entsprechend für alle von der Science Fiction genährten Vorstellungen, eine superintelligente künstliche Intelligenz würde sich gegen die Menschheit wenden und uns vernichten. Aber auch die entgegengesetzte Idee, eine solche KI könnte unser Leben zumindest substanziell verbessern, wenn nicht gar angesichts zukünftiger Bedrohungen retten, ist wenig realistisch. In allen Schwierigkeiten, in denen wir zuletzt gesteckt haben oder immer noch stecken, lag die Ursache nie in einem Mangel an intelligenten Problemanalysen und Lösungsansätzen. Die Tatsache des vom Menschen verursachten Klimawandels beispielsweise ist schon seit hundert Jahren bekannt, und wir wissen auch schon lange, was dagegen zu tun wäre. Wir müssen es nur eben auch tun, und dazu scheint die KI bislang keinen Beitrag zu leisten.


Zeig mehr

Michael J. Hußmann

Michael J. Hußmann gilt als führender Experte für die Technik von Kameras und Objektiven im deutschsprachigen Raum. Er hat Informatik und Linguistik studiert und für einige Jahre als Wissenschaftler im Bereich der Künstlichen Intelligenz gearbeitet.

Ähnliche Artikel

Schreiben Sie einen Kommentar

Bitte melden Sie sich an, um einen Kommentar zu schreiben.

Das könnte Dich interessieren
Close
Back to top button