Blog

Wie gefährlich ist die künstliche Intelligenz?

Künstliche Intelligenz: Warnungen vor den Gefahren der KI finden sich fast täglich in den Medien, und sie reichen von der Forderung nach einer seriösen Technikfolgenabschätzung bis zu Science-Fiction-Fantasien im Terminator-Stil. Was ist an den Bedenken dran?

„My mind is going …“ In Kubricks „2001 – Odyssee im Welt“ ist nur eine tote KI eine gute KI. (Quelle: Grafiker61,

Gestern war ich mit Christoph Künne zu Besuch bei der Pattern Recognition Company (siehe die aktuelle DOCMA 85 ab Seite 60), und auf der Fahrt zu den Lübecker KI-Entwicklern unterhielten wir uns natürlich über künstliche Intelligenz. Wer sich nicht schon selbst mit KI-Systemen beschäftigt hat, wird vermutlich ein Bild von der KI im Kopf haben, das von der Science Fiction geprägt ist. Schon der Kinofilm Colossus (1970) entwarf eine düstere Zukunftsvision, in der sich ein US-amerikanischer und ein sowjetischer Supercomputer gegen die Menschheit zusammenschließen und diese unterjochen. Jüngeren wird die Terminator-Reihe (ab 1984) vertrauter sein, der dasselbe Thema zugrunde liegt. In 2001 – Odyssee im Weltraum (1968) hatte der intelligente Computer HAL 9000 die Besatzung eines Raumschiffs umgebracht, bis es dem letzten Überlebenden gelang, den Computer durch Ausbau seiner Speichermodule abzuschalten.

Kein Wunder, wenn die Furcht vor einer künstlichen Superintelligenz selbst ausgewiesene Genies wie den im März verstorbenen Stephen Hawking nicht unbeeinflusst ließ. Auch Elon Musk (SpaceX, Tesla, The Boring Company) und Bill Gates warnen immer wieder vor einer nicht mehr kontrollierbaren künstlichen Intelligenz. Irgendwann, so lautet die Befürchtung, erreichen wir mit der Weiterentwicklung künstlicher Intelligenz eine Singularität – einen Punkt, an dem die maschinelle Intelligenz die menschliche Intelligenz zu übertreffen beginnt und sich von da an stetig selbst zu einer Superintelligenz verbessert, deren Gedanken Menschen nicht mehr folgen könnten. Während die einen diese Entwicklung begrüßen würden, argwöhnen die anderen, die künstliche Intelligenz würde sich früher oder später der Menschheit entledigen oder diese zumindest versklaven. Angesichts der Art, wie wir mit unserem Planeten umgehen, wäre das schließlich eine völlig rationale Entscheidung.

Aber wie man auch eine Herrschaft der Maschinen bewerten würde: Wir sind noch nicht so weit, und wir werden es noch lange Zeit nicht sein. Die täglichen Erfolgsmeldungen aus der KI, von Go-Programmen, die die weltweit besten menschlichen Spieler schlagen, bis zu Lösungen für vielfältige Aufgaben in der Bildbearbeitung, über die wir in DOCMA regelmäßig berichten, können einen anderen Schluss nahelegen, aber der ginge in die Irre.

Wie ich im letzten Monat schon an dieser Stelle erklärte, sind die erfolgreichen KI-Systeme Spezialisten für kleine, isolierte Problembereiche – Fachidioten also. Googles AlphaGo gelang es zwar in späteren Ausbaustufen, allein mit der Kenntnis der Spielregeln und durch eine Unzahl von Partien gegen sich selbst ein Niveau des Go-Spiels zu erreichen, dem menschliche Go-Meister nichts entgegenzusetzen haben, aber das System kann eben nur exzellente Spielzüge auf dem Go-Brett berechnen, aber nichts, das auch nur ein wenig darüber hinaus ginge. Menschen hingegen verfügen über ein vielfältiges Wissen auf allen Ebenen vom Speziellen zum Allgemeinen, mit dem wir uns meist auch in solchen Situationen zurecht finden, die uns mit dem Unbekannten konfrontieren. Etwas Vergleichbares wurde in der KI noch kaum versucht; Cyc ist eine der wenigen Ausnahmen.

Hinzu kommt, dass KI-Systemen zwar bestimmte Fähigkeiten antrainiert werden können, ohne dass sie aber selbst in diesem begrenzten Bereich irgendetwas verstehen würden. Der Unterschied ist jedem von uns vertraut. Als wir im Kindesalter Fahrrad fahren lernten, taten wir uns zunächst schwer; die Sache war noch ziemlich kippelig und die Hinweise unserer Eltern halfen auch nur begrenzt weiter. Aber irgendwann hatten wir verinnerlicht, wie es geht, und konnten von da an sicher fahren. Wenn wir nun aber eigene Kindern dabei unterstützen wollen, wie man fährt, ohne umzufallen, tun wir uns schwer: Wir verfügen zwar selbst über diese Fähigkeit, können sie aber nur in engen Grenzen erklären. Schon beim Laufen lernen (an das wir uns vermutlich nicht mehr erinnern) war es ähnlich, und wenn wir anfangen, darüber nachzudenken, wir gehen, laufen wir Gefahr, ins Stolpern zu geraten. Von ganz ähnlicher Art sind die so fabelhaften Fähigkeiten von KI-Systemen: Sie sind real und sehr beeindruckend, aber ein KI-System versteht nicht, was es tut. Übrigens versteht nicht einmal derjenige, der ein neuronales Netz entworfen und trainiert hat, wie es zu seinen Ergebnissen kommt; das zumindest annäherungsweise herauszufinden ist noch einmal eine anspruchsvolle Aufgabe für sich.

Ganz anders ist es, wenn wir lernen, wie die Evolution funktioniert, warum sich die Himmelskörper und Gegenstände hier auf der Erde so bewegen, wie sie es tun, was chemische Elemente sind und wie sie miteinander reagieren, wie man ein Haus baut oder einen rekursiven Algorithmus programmiert. Haben wir solche Zusammenhänge einmal begriffen, können wir sie erklären, darüber reflektieren und unsere Erkenntnisse darauf aufbauend erweitern. Das ist aber nicht die Art, in der typische KI-Systeme arbeiten.

Das heißt nicht zwingend, dass sie es niemals könnten. Kritiker der KI unterscheiden zwischen einer starken und einer schwachen KI-These. Die schwache KI-These besagt, dass Maschinen alle Aufgaben, die wir mittels unserer Intelligenz erledigen, früher oder später ebenfalls erledigen können. KI-Skeptiker wie der Philosoph John R. Searle sind durchaus bereit, die schwache KI-These zuzugestehen, bestreiten aber die starke KI-These, nach der ein KI-System über dasselbe wie menschliche Intelligenz verfügen könnte. Oder, präziser gesagt, dass Maschinen über intentionale Zustände verfügen, also eine Haltung gegenüber der Welt einnehmen könnten. Maschinen, so die Kritiker, können zwar formale Symbole manipulieren – oder Zustände eines neuronalen Netzes, die sich als Symbole interpretieren lassen –, aber diese Symbole symbolisieren nichts. Jedenfalls nicht für die Maschine selbst; es sind wir, die Benutzer der Maschine, die ihnen eine Bedeutung geben.

Wenn sich die starke KI-These nicht aufrechterhalten ließe, hätten wir den Zorn einer künstlichen Superintelligenz nicht zu fürchten, denn sie könnte sich über nichts erzürnen. Aber man muss nicht einmal den Kritikern folgen, um die behauptete Gefahr zumindest zu relativieren. Wir leben in der Welt und wir sind dazu geschaffen, uns in ihr zu behaupten – zumindest so lange, bis wir uns ähnlichen Nachwuchs in diese Welt gesetzt haben. Wären wir es nicht, dann gäbe es uns nicht. Das, was uns umtreibt, hat mit den konkreten Umständen unseres Lebens zu tun, und nicht mit rein theoretischen Erwägungen.

Vielleicht gibt es irgendwann sich selbst replizierende Roboter als neue, künstlich intelligente Lebensform, und dieser könnte man intentionale Zustände zusprechen, selbst lange bevor sie eine menschenähnliche Intelligenz erreicht. Etwa so, wie wir unseren Hunden und Katzen Ansichten, Wünsche und Hoffnungen zuschreiben, obwohl wir uns nicht der Illusion hingeben, ihre intellektuellen Fähigkeiten ähnelten unseren. Auch hierfür können wir die Science Fiction als Beleg heranziehen, denn jeder Filmzuschauer sieht in einem C3PO – oder sogar dem piepsenden R2D2 – ein Wesen mit Wünschen und Absichten, obwohl der Film keinen Zweifel daran lässt, dass es sich um Maschinen handelt. Wir müssen gar nicht auf reale Maschinen dieser Art warten, um zu wissen, wie wir Menschen auf sie reagieren werden. Aber KI-Systeme sind noch lange nicht in der Lage, auf diese Weise in der Welt zu leben, und bis dahin wird ihnen alles egal sein – es liegt allein an uns, was wir ihnen zu tun erlauben.

Das heißt natürlich nicht, dass KI-Systeme ungefährlich wären. Sie sind ebenso gefährlich wie potentiell alle technischen Systeme – insbesondere solche, die wir nicht vollständig verstehen. Wer so gläubig auf sein Navigationssystem vertraut, dass er diesem folgend sein Auto über die Kaimauer steuert, kommt vielleicht durch ein Computersystem zu Tode, aber nicht deshalb, weil sich ein Computer zum Ziel gesetzt hätte, die Autofahrer zu eliminieren. Auch jemand, der von der Rakete einer autonom operierenden Drohne zerfetzt wird, ist kein Opfer der KI, sondern eines Staates, der die Tötung von Menschen nach irgendwelchen willkürlichen Regeln gutheißt. Es ist nicht die künstliche Intelligenz, vor der wir uns fürchten müssen, sondern mangelnde menschliche Intelligenz und die bösen Absichten einiger unserer Mitmenschen.

Zeig mehr

Michael J. Hußmann

Michael J. Hußmann gilt als führender Experte für die Technik von Kameras und Objektiven im deutschsprachigen Raum. Er hat Informatik und Linguistik studiert und für einige Jahre als Wissenschaftler im Bereich der Künstlichen Intelligenz gearbeitet.

Ähnliche Artikel

Schreiben Sie einen Kommentar

Bitte melden Sie sich an, um einen Kommentar zu schreiben.

Back to top button