In meiner Kindheit gruselte ich mich vor Riesenspinnen und Ameisen in Elefantengröße, wie sie die B-Movies der 50er und 60er Jahre bevölkerten. Damals wusste ich noch nicht, dass weder Spinnen noch Insekten eine solche Größe erreichen können, denn die Eigenheiten ihres Körperbaus verhindern das. Mit der KI ist es ähnlich, denn wie intelligent die KI-Systeme auch noch werden mögen: Einen Aufstand der Maschinen wird es voraussichtlich nicht geben. (Manche von uns werden trotzdem ihren Job an eine KI verlieren, aber das ist ein anderes Thema.)

Ob nun dank Tierversuchen mit einem Wachstumsserum (Tarantula, 1955) oder durch Atombombentests (Formicula, 1954) – die Vorstellung, dass zunächst harmlose Tiere wie Spinnen oder Ameisen zu riesenhafter Größe anwachsen und zur Bedrohung für den Menschen werden könnten, gegen die nur noch Flammenwerfer oder Napalm etwas ausrichten, war in den fünfziger Jahren allgegenwärtig. Der erwartbare Horror hielt mich aber nicht davon ab, den Fernseher einzuschalten, wenn im Dritten Programm das Gruselkabinett lief und der geflüsterte Vorspann „Mumien, Monstren, Mutationen“ einen weiteren B-Movie von Jack Arnold oder einem anderen Regisseur dieses Genres ankündigte.
Von der Biologie der Insekten und Spinnentiere hatte ich damals keine Ahnung. Andernfalls hätte ich gewusst, dass Spinnen wie Ameisen ersticken müssten, bevor sie eine Größe wie in den Gruselfilmen erreicht hätten. Für Filmaufnahmen kann man ja fast beliebig große und kleine Tiermodelle bauen, aber ein lebendiges Tier zu skalieren – mal angenommen, das wäre technisch irgendwie möglich – würde an den Gesetzen der Geometrie scheitern. Das Problem besteht darin, dass bei einer linearen Vergrößerung alle Flächen quadratisch, alle Volumina aber mit der dritten Potenz steigen.
Eine doppelte Größe bedeutet die vierfache Fläche und das achtfache Volumen. Die Muskelmasse eines Tiers hängt annähernd von seinem Volumen ab, und in gleichem Maße steigt auch der Sauerstoffbedarf dieser Muskeln. Die Leistungsfähigkeit der Tracheen und Buchlungen, mit denen Insekten beziehungsweise Spinnen den Sauerstoff aus der Luft aufnehmen, hängt dagegen von deren Fläche ab, die bei einer Vergrößerung nicht im gleichen Maßstab wie das Volumen steigt. Ab einer bestimmten Größe bekommen die Tiere einfach nicht mehr genug Luft, und das setzt ihrem Wachstum Grenzen. Falls nun jemand einwendet, dass es in früheren Erdzeitaltern doch viel größere Insekten gegeben hätte: Das stimmt, doch war das im Karbon, vor mehr als 300 Millionen Jahren, als der Sauerstoffgehalt der Erdatmosphäre mit rund 32,5 Prozent noch viel höher als heute war.
Und was hat das nun mit KI zu tun? Manche – sogar ausgewiesene KI-Experten wie Geoffrey Hinton oder auch Stephen Hawking, der hoch intelligent, aber kein KI-Fachmann war – befürchten ja, KI-Systeme würden immer intelligenter werden, schließlich den Stand einer allgemeinen, universellen Intelligenz erreichen und die Menschheit dann nicht nur intellektuell überflügeln, sondern uns auch zu beherrschen trachten. Im besten Fall würde uns die künstliche Superintelligenz bloß ignorieren, wobei wir aber auch unter die Räder gerieten.
Es gibt nur keinen plausiblen Grund, weshalb eine große Intelligenz die Neigungen zur Weltbeherrschung fördern sollte. Schaut man sich unter Diktatoren und Autokraten um, wirken diese eher mittel-intelligent und höchstens bauernschlau. Wirklich intelligente Menschen haben Besseres zu tun, als ihre Zeit mit der Weltherrschaft zu verschwenden, während diejenigen, die gerne andere beherrschen und unterdrücken, durchweg eigene Unzulänglichkeiten kompensieren wollen. Eine große Intelligenz als solche führt ja nicht einmal dazu, dass man überhaupt irgendeinen Willen entwickelt. Die Ziele, die eine KI verfolgt, sind von ihren Entwicklern vorgegeben; eigene Ziele hat sie nicht.
Um den Graben zu erkennen, der bloß intelligente Agenten von solchen mit einem Willen trennt und den keine Steigerung der Intelligenz überbrücken kann, hilft es, in die Zeit der symbolischen KI des vorigen Jahrhunderts zurückzugehen, denn damals war die KI noch übersichtlicher. Die wesentlichen Elemente, mit denen die symbolischen KI-Systeme arbeiten, sind Aussagen – wahre und falsche Aussagen, konkrete oder allgemeine Aussagen. Aussagen wie „Der kleine grüne Block steht auf dem großen roten Block“, „John liebt Mary“, „Alle Menschen sind sterblich“ oder „Der Mond besteht aus grünem Käse“. Ausgehend von einer Menge solcher Aussagen kann man mit Schlussfolgerungsregeln neue Aussagen generieren, also beispielsweise aus „Alle Menschen sind sterblich“ und „Sokrates ist ein Mensch“ folgern, dass auch „Sokrates ist sterblich“ wahr ist. Ebenso folgt aus „Alle Menschen sind sterblich“ und „Zeus ist unsterblich“ die Aussage „Zeus ist kein Mensch“. Schlussfolgerungsregeln kann man vorwärtsverkettend (englisch forward chaining) anwenden, indem man aus den bekannten Fakten alle möglichen Schlussfolgerungen ableitet und diese ebenfalls der Wissensbasis hinzufügt, oder rückwärtsverkettend (englisch backward chaining), wenn man eine Aussage mit unbekanntem Wahrheitswert hat und herausfinden will, ob sie (oder ihr Gegenteil) sich aus den bekannten Fakten herleiten lässt.
Für viele Aufgaben ist darüber hinaus das nötig, was man in der Kognitionswissenschaft eine Theory of Mind nennt, nämlich ein Modell des Denkens anderer. Dazu speichert man in der Wissensbasis nicht einfach Aussagen, sondern sogenannte propositionale Einstellungen (englisch propositional attitudes), also wie ein intelligenter Agent (ein Mensch oder eine KI) zu bestimmten Aussagen steht. Beispiele dafür sind „Mary weiss, dass John Mary liebt“, „John hofft, dass es morgen nicht regnet“ und „Sokrates befürchtet, dass der Mond aus grünem Käse besteht“. Die Theory of Mind erlaubt dann Schlussfolgerungen darüber, welche Schlussfolgerungen andere Agenten ziehen können, denen man vielleicht andere Überzeugungen unterstellt, als man sie selbst hat.
Der Vollständigkeit halber wäre noch hinzuzufügen, dass in der symbolischen KI neben Aussagen auch Aktionen eine Rolle spielen. Komplexe Aufgaben lassen sich mit Regeln in einfachere Teilaufgaben zerlegen, und Planungssysteme zur Steuerung beispielsweise eines Roboters können eine gegebene Aufgabe schrittweise bis auf eine Sequenz primitiver Aktionen herunterbrechen, die der Roboter unmittelbar ausführen kann.
Aber fehlt da nicht etwas, das für die menschliche Intelligenz ganz entscheidend ist? Eben genau das: Entscheidungen. Vom frühen Morgen angefangen, wenn wir überlegen, ob wir schon aufstehen oder noch einmal auf die Schlummertaste des Weckers drücken sollen, treffen wir den ganzen Tag über hunderte kleinere und größere Entscheidungen. Genau genommen tun wir das sogar noch nachts in unseren Träumen, bloß haben diese Entscheidungen keine Konsequenzen. Unsere wirklichen Entscheidungen haben diese sehr wohl: Jede Entscheidung, das eine zu tun und anderes zu lassen, gibt unserem Leben eine bestimmte Richtung. Bis zu dieser Entscheidung hatten wir diverse Möglichkeiten, aber dann haben wir uns für eine einzige entschieden.
Um zu einer Entscheidung zu gelangen, müssen wir die relevanten Handlungsalternativen identifizieren, ihre jeweilige Vor- und Nachteile evaluieren und deren Bedeutung gewichten, und allein das zu tun, erfordert bereits eine Entscheidung. Danach können wir eine informierte Wahl treffen. Ohne solche Entscheidungen würden wir immer nur Schlussfolgerungen ziehen und dieses und jenes erwägen, aber niemals etwas tun.
Nun hat die KI die Phase der Good old-fashioned AI längst überwunden, aber an dieser Beschränkung hat sich nichts geändert. Mit einem auf neuronalen Netzen statt auf Symbolen und Regeln basierenden Large Language Model kann man lange über das Verhältnis von Maschinen und Menschen diskutieren, und man könnte es vermutlich dazu bringen, in leuchtenden Farben die Vorteile einer Herrschaft der KI über eine minderintelligente Menschheit auszumalen – aber irgendwo anders auf der Welt wird dieselbe KI einem anderen Nutzer das Gegenteil erzählen, und insgesamt wird das KI-Modell eben immer nur reden, letztendlich aber nichts tun. Es kann ausgefeilte Pläne zur Erlangung der Weltherrschaft entwickeln, wird sie aber nicht umsetzen – oder jedenfalls nicht aus eigenem Antrieb. Selbst wenn man ein KI-Modell befähigt, in der Welt tätig zu werden, woran ja aktuell gearbeitet wird, setzt es nur Anweisungen anderer um. Wenn KI-Modelle heute schon Entscheidungen treffen, dann nur in kleinen eng umgrenzten Bereichen; so können KI-gesteuerte Kamikaze-Drohnen in den letzten Sekunden vor der Explosion selbst entscheiden, welches der möglichen Ziele sie angreifen.
Aber könnte man nicht auch KI-Modelle entwickeln, die wie wir Entscheidungen treffen, Absichten fassen und nach ihnen handeln? Etwa so, wie riesige Spinnen und Insekten möglich wären, wenn sie nur genug Sauerstoff zum Atmen hätten? Das wäre immerhin denkbar. Eine Mindestvoraussetzung dafür wäre, dass sich die Modelle im Betrieb verändern können, und bislang – ich hatte darauf schon gelegentlich hingewiesen – tun sie das nicht. Was über eine aktuelle Konsultation gespeichert ist, wird gleich danach wieder gelöscht, und bleibende Veränderungen entstehen nur im Training neuer Versionen beim Hersteller. Andererseits gibt es aber auch keine absolute technische Beschränkung, die sich verändernde KI-Modelle auf alle Zeit verhinderte.
Dass eine solche Entwicklung dennoch unwahrscheinlich ist, hat pragmatische Gründe. Ein aufwendig trainiertes KI-Modell soll Millionen von Kunden mit individuellen Anliegen und Vorlieben nutzen, aber jede Entscheidung, die es trifft, würde seine Flexibilität einschränken. Genauso wenig, wie wir eine Textverarbeitung begrüßen, die sich irgendwann auf den Blocksatz als bevorzugter und einziger Formatierung festlegt, wollen wir eine KI, die wir mühsam überreden müssten, ihre Aufgabe zu erfüllen. Ein allzu entscheidungsfreudiges KI-Modell könnte wie Melvilles Schreiber Bartleby enden, der schließlich jedes an ihn herangetragene Ansinnen mit „Ich möchte lieber nicht“ zurückwies.
Immerhin kann man sich kleine KI-Systeme vorstellen, die statt in einer Cloud On-Premises, also vor Ort bei jeweils einem einzigen Nutzer installiert werden. Dort könnten sie sich dann individuell weiterentwickeln und im Idealfall anpassen; im ungünstigeren Fällen würden sie bockig oder gar gefährlich (Sie erinnern sich vermutlich an die intelligente Bombe in Dark Star …). Also etwa so wie Hunde, deren Herrchen und Frauchen nicht selten hilflos mit ihnen agieren, und genauso wie man heute in Kursen lernen kann, wie man seinen jungen Hund erzieht, werden künftig vielleicht Lehrgänge zum richtigen Umgang mit der KI angeboten werden müssen. Bislang ist das allerdings Science Fiction, und KIs, mit deren Entscheidungen wir hadern, werden wir so bald nicht begegnen – schlicht weil sie eher unpraktisch und schwer verkäuflich wären.
Im DOCMAshop finden Sie alle Infos zum aktuellen Heft: Das ausführliche Inhaltsverzeichnis sowie einige Seiten als Kostprobe.