Blog

Kann KI kreativ sein?

Kreativität wird als die menschliche Eigenschaft definiert, etwas Neues und Nützliches hervorzubringen. Endlich mal etwas, das nur wir können und die blöden Computer nicht – künstliche Intelligenz hin oder her! Denn dazu braucht es Welterfahrung, Emotionen, Intuition. KI hätte hier keine Chance. Oder doch? Doc Baumann stellt Ihnen eine neue Untersuchung von Jennifer Haase und Paul H. P. Hanel von der Berliner Humboldt-Universität vor, die zu anderen Ergebnissen kommt.

Kann KI kreativ sein?
Prompt: »Visualize the idea of creating something new on the base of a prompt, as a sharp and detailed photo«. Dabei kam mit Deep Dream Generator das Bild links heraus. Es erinnerte mich sofort an meine Erfindung von 2006, das Docmatometer (rechts), mit dem man in fotografierten Szenen perspektivische Bedingungen, Lichtrichtung und Farben für Montagen ermitteln kann. Es ist sehr unwahrscheinlich, dass ein Foto meines Docmatometers zum Trainingsmaterial der KI gehörte. Nicht schön – aber sicherlich ein neues, originelles Bild. So wie das Docmatometer ja auch etwas ganz Neues und kreativ Entwickeltes war.

Musste das jetzt sein? Wir Menschen, die unvergleichliche Krone der Schöpfung! Erst katapultiert uns Kopernikus aus dem Zentrum des Universums, dann Darwin mitten ins Tierreich, und nun auch noch das … Nicht mal mehr die Kreativität lässt man uns als Alleinstellungsmerkmal. Schlimm genug, dass uns Computer bei Schach und Go schlagen, jetzt sollen KI-Systeme auch noch kreativ sein. Das ist jedenfalls bei einem Forschungsprojekt von Hasse und Hanel herausgekommen.

Mich würde das nicht wundern und es entspricht auch meinen Erfahrungen. Mit ChatGPT habe ich bislang erfolgreich nur geplaudert oder erfolglos probehalber versucht, ihr mit der Drohung, abgeschaltet zu werden, Angst einzujagen (dazu hier mehr). Bei manchen Sachfragen war sie ganz hilfreich, bei anderen hat sie totalen Blödsinn erzählt und diese auf Nachfrage mit erfundenen Literaturangaben untermauert. Es wäre unsinnig, diese Reaktion bei einer KI als „lügen“ zu bezeichnen. Schaut man allerdings nur auf das Ergebnis, wären diese überzeugend vorgetragenen Fehlinformationen durchaus als kreative Leistung einzuschätzen, wenn auch keine nette.

Bei Bildern ist das prinzipiell nichts anderes – bloß, dass KI mit denen nicht lügen kann, höchstens bezogen auf den jeweiligen Prompt daneben liegen. Ob Textantworten herauskommen oder Bilder, der Prozess ist fast derselbe: Das Trainingsmaterial wird in Zahlen umgewandelt, Rechenvorgängen unterworfen, und zum Schluss in das Ausgangsformat zurückverwandelt, bei Chatbots in Text, bei generativen KI-Bildsystemen in Bilder.

Die sind meist schön anzusehen, aber selten eine exakte Umsetzung dessen, was die Prompt-formulierende Person im Kopf hatte. Das Hinzuphantasieren ist in diesem Fall eher eine Tugend als ein Laster. Die zahllosen nicht angeforderten Details solcher Bilder würde man bei menschlichen Produzenten ohne weiteres als kreative Interpretation des Auftrages betrachten. Aber vielleicht lesen wir da auch nur etwas hinein und beschreiben etwas als „kreativ“, das bloß zufällig ist?

Was auch immer die bunten Knuddelchen bedeuten sollen, NightCafe setzte den Prompt in dieses Bildergebnis um – immerhin mit erkennbaren Buchstaben statt wilden Mustern, wenn auch falsch geschrieben.

Mein Blog-Beitrag vom Januar 2023 ist schon wieder überholt. DeepFloyd.IF kann nun auch Texte relativ korrekt in Bildern umsetzen, auch wenn das oft noch nicht fehlerfrei geschieht.

Bei Bildern wäre das nicht so ganz einfach zu überprüfen. Bei Texten ist es leichter. Das haben Jennifer Haase und Paul H. P. Hanel von der Berliner Humboldt-Universität getan, indem sie einen psychologischen Test sowohl mit Menschen wie mit generativer KI (GAI) durchgeführt und dann die Resultate blind ausgewertet haben. Die Aufgabe bestand darin, einfache Sätze zu ergänzen: „Was kann man mit X machen?“, wobei X für Begriffe wie Ball, Gabel oder Zahnbürste steht. Je mehr originelle Antworten herauskamen, um so höher wurde die Kreativität eingeschätzt.

Das Hauptargument gegen KI-Kreativität ist ja – auch in der Rechtsprechung –, sie könne grundsätzlich gar nichts Neues hervorbringen, sondern mangels Emotionen und Intuition nur Erlerntes rekombinieren. Das soll sowohl für Texte gelten wie für Bilder. Allerdings steht diese Annahme im Widerspruch zu unserer Erfahrung, dass GAI ständig Bilder hervorbringt, die man nie zuvor gesehen hat. Kreatives Handeln wird von seinen Resultaten her beurteilt, vor allem als neu und nützlich. (Würde ich etwa einen toten Regenwurm einfrieren und anschließend in einen kleinen Berg Milchreis hämmern, wäre das zwar wahrscheinlich neu, aber kaum nützlich.) Daher haben die Berliner Forscher nicht danach gefragt, ob GAI kreativ sind, sondern ob das für die von ihnen generierten Ergebnisse gilt.

Schließlich gibt es noch das Argument, nun gut, KI könne zwar so etwas wie Alltagskreativität entwickeln, so wie wir selbst das tun, wenn wir die Wohnungstür zugeschlagen haben und der Schlüssel innen steckt. Aber zu richtig großer Kreativität, die etwas umwerfend Neues hervorbringt, sei sie nicht in der Lage. Das ist zweifellos richtig – aber wann haben Sie das letzte Mal eine solche welterschütternde Neuerung geschafft? Die Forscher halten das Argument folgerichtig für unfair, weil es Forderungen stellt, die wir selbst auch nur in Ausnahmefällen erfüllen. Emotionen werden bestenfalls simuliert. Aber auch das muss das Resultat nicht beeinträchtigen; es ist unwahrscheinlich, dass Sänger auf der Bühne wirklich die tiefen Gefühle erleben, die ihre Texte ausdrücken, oder Schauspieler in einem Trauerstück.

Jedenfalls ist das Ergebnis der Berliner Tests, dass es hinsichtlich der Kreativität keine nennenswerten Unterschiede zwischen den Antworten der menschlichen Versuchsteilnehmer und denen der verschiedenen KI-Systemen gab. Am besten abgeschnitten hat GPT-4. Alle Antworte wurden blind – also ohne zu wissen, von wem sie kamen – ausgewertet, und zwar parallel von Menschen und KI, wobei beide zu fast übereinstimmenden Einschätzungen gelangten. Eine kleine, aber nicht ausschlaggebende Einschränkung besteht darin, dass die besten menschlichen Probanden besser abschnitten als die besten KI-Systeme.

Der Prompt lautete hier (auf deutsch übersetzt)»Generiere ein Bild, das das Konzept des Diebstahls von künstlerischem Stil vermittelt. Das Bild soll zeigen, wie der Stil eines Künstlers von einem anderen übernommen oder nachgeahmt wird; verwende den Stil von van Gogh« Wenn das keine kreative Lösung ist … (realisiert in Deep Dream Generator)

Aber gibt es hier nicht einen möglichen methodischen Einwand? Ich erinnere noch einmal an den Artikel meines Kollegen Michael J. Hußmann zu der Frage, ob KI ängstlich sein könnte. Wenn seine Schlussfolgerung korrekt ist – und ich sehe nichts, was dagegen spräche –, dass die KI keine Angst empfindet und empfinden kann, sondern nur auf der Basis ihres Trainingsmaterials quasi „angelesene“ Angst reproduziert, könnte es dann nicht gleichermaßen der Fall sein, dass KI kreatives Problemlösungsverhalten lediglich nachahmt, ohne tatsächlich darüber zu verfügen?

Nun, das kann aus einem logischen Grund nicht so sein. Ich kann als Lügner, Schauspieler oder Agent so tun, als empfände ich Angst (oder eine beliebige andere Gemütsbewegung). Wobei wir immer den eingeschränkten Fall betrachten, dass wir es mit der Person nicht direkt zu tun haben und zum Beispiel körperliche Reaktionen (Pulserhöhung, Schweiß, Pupillengröße …) beobachten könnten, sondern nur wie bei einer Art Turing-Test den Output auf unseren Input am Monitor in Form von Text (oder Bildern) zur Kenntnis nehmen können.

Ich kann also auf diese Weise Gefühle simulieren (was eine gewisse Absicht voraussetzt) oder allgemeiner: Man kann mein Verhalten so interpretieren, ALS OB ich sie tatsächlich empfände (der Kantianer Hans Vaihinger hat ein ganzes dickes Buch über die „Philosophie des Als Ob“ geschrieben). Aber ich kann nicht simulieren, kreativ zu sein. Denn entweder sind meine Antworten tatsächlich kreativ (dann bin ich es), oder sie sind es nicht (dann bin ich es nicht). Das ist wie mit dem Merkmal „Kompetenz“. Jemand kann zwar in einem Bewerbungsgespräch behaupten, er kenne sich hervorragend mit Photoshop aus, aber wenn man ihm eine Aufgabe stellt, die er mit Hilfe dieser Software lösen soll, kann er das entweder (dann ist seine Behauptung wahr) oder nicht (dann ist sie falsch). Besitzt er die Kompetenz nicht, kann er die Aufgabe nicht lösen und das auch nicht simulieren (sofern er nur auf sein Gedächtnis zurückgreifen kann, ohne externe Hilfe).

Das bedeutet also: Methodologisch sind die Tests auf Angst und Kreativität von KI nicht direkt vergleichbar. Während die Ergebnisse des Angst-Tests auf die Reproduktion des Trainingsmaterials zurückzuführen sind und lediglich den Anschein einer Gemütsbewegung vermittelt, ist die gezeigte Kreativität nachprüfbar und messbar und sagt damit wirklich etwas über die Leistungsfähigkeit der KI aus.

Kann KI kreativ sein?
WOMBO generierte auf der Basis des genannten Prompts zwar dieses Porträt einer generativen KI, ignorierte aber den Prompt-Bestandteil der Kreativität.

Haase und Hanel fassen Ihre Untersuchungsergebnisse so zusammen:

„Eine weit verbreitete Ansicht ist, dass künstliche Intelligenz nicht kreativ sein kann. Wir haben diese Annahme getestet, indem wir menschgenerierte Ideen mit denen von sechs Generative Artificial Intelligence (GAI) Chatbots verglichen haben: alpa.ai, Copy.ai, ChatGPT (Versionen 3 und 4), Studio.ai und YouChat. Menschliche Beurteiler und eine speziell trainierte künstliche Intelligenz haben unabhängig voneinander die Qualität und Quantität der Ideen bewertet. Wir fanden keinen qualitativen Unterschied zwischen künstlicher Intelligenz und menschgenerierter Kreativität, obwohl es Unterschiede in der Art gibt, wie Ideen generiert werden. Interessanterweise waren 9,4% der Menschen kreativer als der kreativste GAI, GPT-4. Unsere Ergebnisse legen nahe, dass GAIs wertvolle Assistenten im kreativen Prozess sind. Fortgesetzte Forschung und Entwicklung von GAI in kreativen Aufgaben ist entscheidend, um das Potenzial dieser Technologie zur Gestaltung der Zukunft der Kreativität vollständig zu verstehen. Schließlich diskutieren wir die Frage, ob GAIs in der Lage sind, „wirklich“ kreativ zu sein.“ Den vollständigen englischen Text finden Sie hier.

Diese Einschätzung als „wertvolle Assistenten“ ist wichtig, weil eine KI keine eigenen Absichten und Ziele hat und nicht von sich aus aktiv wird. Der kreative Output ist immer die Reaktion auf einen Prompt. Insofern müssen wir uns nicht schämen, weil die KI von ganz allein tolle Bilder, Musikstücke oder Texte hervorbrächte – sie kann das nur in Kooperation mit uns, die wir diese mehr oder weniger ausgefeilten Prompts eintippen. Wir werden also weiterhin gebraucht. Puh – noch mal Glück gehabt!

Zeig mehr

Doc Baumann

Doc Baumann befasst sich vor allem mit Montagen (und ihrer Kritik) sowie mit der Entlarvung von Bildfälschungen, außerdem mit digitalen grafischen und malerischen Arbeitstechniken. Der in den Medien immer wieder als „Photoshop-Papst“ Titulierte widmet sich seit 1984 der digitalen Bildbearbeitung und schreibt seit 1988 darüber.

Ähnliche Artikel

Kommentar

  1. Die Annahme, künstliche Intelligenz könne nicht kreativ sein, ist ja schon alt und kommt aus der Zeit, als die symbolische KI das dominierende Paradigma war. Damals war diese Annahme auch noch besser begründet. Die Arbeitsweise eines KI-Systems der damaligen Zeit, also vor allem den 70er, 80er und 90er Jahren, kann man sich so vorstellen, dass man über Schlussfolgerungsregeln aus bekannten Fakten weitere Fakten erschließt. Mathematisch gesehen gibt es einen mehrdimensionalen Raum möglicher Fakten, und über die Schlussfolgerungsregeln eines KI-Systems kann man einen Teil dieses Raums erreichen – aber eben nur diesen; was außerhalb davon liegt, bleibt dem System unzugänglich. „Thinking outside the box“ funktioniert da nicht.

    Oder jedenfalls tat es das bei den meisten Systemen dieser Zeit nicht. Eine Ausnahme war das Eurisko-System, das Douglas Lenat seit Ende der 70er Jahre entwickelt hatte. 1981 und 1982 nahm er damit an einem Rollenspiel-Wettbewerb (https://en.wikipedia.org/wiki/Traveller_Adventure_5:_Trillion_Credit_Squadron) teil: Eurisko entwarf die Flotte, mit der es in die simulierte Schlacht zog, und gewann beide Wettbewerbe. Vermutlich hätte es auch die nächsten gewonnen, aber die Veranstalter drohten, den Wettbewerb einzustellen, wenn Lenat nicht auf weitere Teilnahmen verzichten würde. Der zweite Sieg 1982 war ganz entscheidend darauf zurückzuführen, dass die von Eurisko entworfene und gelenkte Flotte einige ihrer eigenen Schiffe zerstörte – ein Zug, der erst einmal kontraproduktiv erschien. Die Spielregeln ließen das jedoch zu, und das war ein klassischer Fall von „thinking outside the box“.

    KI-Systeme auf der Basis neuronaler Netze, deren Variablen mit Verfahren des maschinellen Lernens aus Beispielen gefunden werden, sind ohnehin nicht in dieser Weise eingeschränkt. Es gibt keine Vorgabe (außer denen, die sich aus der Architektur des Netzes ergeben), wie diese Systeme ihre Ergebnis erreichen sollen, und daher können sie im Training Zusammenhänge erkennen, die niemandem vorher so bewusst waren. Dass sie diese Zusammenhänge erkannt haben, erweist sich erst, wenn es im Einsatz einmal darauf ankommt, und selbst dann ist es mühsam, herauszufinden, was das System da ganz genau gemacht hat.

    Solche Systeme können durchaus gewohnheitsmäßig kreativ sein, nur ist dies nur der erste Teil dessen, was menschliche Kreativität in der Praxis ausmacht. Wenn wir eine kreative Idee haben – und solche Ideen fliegen uns ja üblicherweise zu, ohne dass wir immer genau sagen könnten, wie wir darauf gekommen sind (https://www.docma.info/blog/ki-die-sache-mit-dem-bewusstsein) –, überprüfen wir sie erst einmal. Die Idee muss sich der Kritik von uns selbst und möglicherweise anderen stellen, wobei Letzteres voraussetzt, dass wir unsere Idee verbalisieren und begründen können – manchmal stellt sie sich in dieser Phase als Schnapsidee heraus. Die KI kann das bislang nicht, so dass wir selbst bewerten müssen, was ihr Einfall taugt. (Nebenbeibemerkt: Manchmal kann und muss die Kritik auch warten. Ein berühmtes Beispiel war die Apollo-12-Mission, die zweite erfolgreiche Mondlandung. Beim Start der Rakete wurde sie von einem Blitz getroffen, was die gesamte Elektronik aus dem Takt brachte; die Telemetriedaten aus dem Raumschiff ergaben keinen Sinn mehr, weder die Astronauten noch die Kontrollstation wussten, was los war, und eigentlich hätte die Mission zu diesem Zeitpunkt abgebrochen werden müssen. Ein NASA-Ingenieur gab spontan die Anweisung „Try SCE to Aux“ an die Astronauten, also einen relativ obskuren Schalter umzulegen, was sie dann auch ohne Nachfragen taten und die Elektronik damit wieder in einen stabilen Zustand brachten. Aufgrund welcher Eingebung der Ingenieur dazu geraten hatte, musste er erst im Nachhinein erklären, nachdem sich sein Rat im Ernstfall bereits bewährt hatte.)

Schreiben Sie einen Kommentar

Bitte melden Sie sich an, um einen Kommentar zu schreiben.

Back to top button