Blog

Künstliche Intelligenz: Bilder aus Texten auf eigenem Rechner generieren

Dall-E2, ein KI-System, das Bilder aus Texten generiert, hat die Betaphase verlassen und sorgt nun für fotorealistische Ergebnisse. Die KI Midjourney erschafft ebenfalls beeindruckende Kunstwerke. Alle Motive entstehen nur per Texteingabe. Aber auch für gar nicht so wenig Geld. Die Opensource-KI Stable Diffusion kann dagegen kostenlos auf dem heimischen Rechner ausgeführt werden. Wie das geht und wie meine ersten eigenen Experimente ausfallen, lesen Sie hier.

Drei Ergebniss, die ich mit dem Stable-Diffusion-Plug-in für Blender/Nvidia und DiffusionBee für den Mac erzeugt habe. Künstliche Intelligenz: Bilder aus Texten auf eigenem Rechner generieren
Drei Ergebniss, die ich mit dem Stable-Diffusion-Plug-in für Blender/Nvidia und DiffusionBee für den Mac erzeugt habe.

Künstliche Intelligenz: Text-zu-Bild-Generatoren

Wozu KI in der Lage ist, hatte ich Ihnen in meinem Blogbeitrag über die Zukunft der Bildbearbeitung bereits zusammengestellt. Das meiste davon ist bereits Realität. Und manches lässt sich sogar ohne Cloudservices auf dem eigenen Rechner ausführen.

Proprietäre Systeme

Die proprietären Text-zu-Bild-KI-Systeme Dall-E2 und Midjourney lassen sich nur serverbasiert ausführen. Sie müssen also Text in eine Webseite oder einen Discord-Chatbot eingeben und das Bildergebnis in der Cloud berechnen lassen. Der Vorteil: Man erhält aufgrund der hohen Rechenleistung der Renderfarmen voller Grafikkarten schnell Ergebnisse. Der Nachteil: Sie müssen für diese Dienstleistung zahlen. In Anbetracht der Hardware-, Unterhalts- und Stromkosten von Renderfarmen ist das auch verständlich. So zahlen Sie bei Midjourney nach Verbrauch der Testcredits mindestens 10 Euro pro Monat – wobei Sie jedoch bei ausgiebigem Experimentieren schnell an Grenzen stoßen. Also sollte es schon das größere Paket für 30 Euro sein, bei dem man mit sogenannter „Relax-Time“ (also etwas Wartezeit nach Verbrauch des schnellen Kontingents) quasi unbegrenzt Bilder erzeugen lassen kann. Bei dem Token-basierten Bezahlsystem von Dall-E zahlt man nicht monatlich, sondern per Generierung – das kann aber schnell teuerer als Midjourney werden, wenn man spielt und experimentiert.

Opensource

Zum Glück gibt es auch eine Opensource-KI namens Stable Diffusion. Den notwendigen Code kann man sich hier herunterladen. Die Installation und Nutzung ist jedoch eher etwas für KI-, Script- und Computerexperten. Als Künstler hat man darauf eigentlich wenig Lust. Zum Glück gibt es schon die ersten Systeme, die sich relativ einfach installieren lassen und damit Stable Diffusion nutzbar machen. Das Tolle: Alles wird auf dem eigenen Rechner gerendert. Sie müssen für die Verwendung nach der Installation keine Internetverbindung haben und kein Geld ausgeben.

KI-Generator für Apple Silicon-Macs

Wenn Sie einen Mac mit M1- oder M2-Chip nutzen, gibt es einen Ein-Klick-Installer. DiffusionBee laden Sie herunter, öffnen es, warten ab, bis die (mehrere Gigabyte großen) KI-Modelle heruntergeladen sind, und können dann direkt loslegen.

Auf "Download for macOS" klicken, die App aus dem Image in den Programme-Ordner ziehen und starten. Einfacher lässt sich Stable Diffusion derzeit nicht vernwenden. Künstliche Intelligenz: Bilder aus Texten auf eigenem Rechner generieren
Auf „Download for macOS“ klicken, die App aus dem Image in den Programme-Ordner ziehen und starten. Einfacher lässt sich Stable Diffusion derzeit nicht vernwenden.
Mit einer zeitgemäßen Internetverbindung ist der automatische Download der KI-Modelle (4 bis 5 GB) schnell erledigt.
Mit einer zeitgemäßen Internetverbindung ist der automatische Download der KI-Modelle (4 bis 5 GB) schnell erledigt.

Auf meinem Mac Studio dauert die Generierung eines Bildes nach der Texteingabe je nach Größe (512 px × 512 px ist ein guter Kompromiss) 10 Sekunden und länger. Hervorzuheben ist, dass DiffusionBee Eingabe (Prompt)-Vorschläge anbietet, mit denen Sie sich das Gewünschte zusammenklicken können. Englisch-Kenntnisse sind hier Voraussetzung. Toll ist auch, dass Sie einfach mehrere Bilder auf einmal generieren lassen können. Nach ein, zwei Kaffee sind die dann auch fertig gerendert.

Windows und Nvidia: Dream Textures for Blender

Schneller als mit jedem aktuellen Mac geht der Spaß, wenn Sie eine Nvidia-Grafikkarte mit mindestens 6 GB Video-RAM besitzen. Sie benötigen also einen PC, da sich Apple und Nvidia einmal auseinandergelebt haben. Wie Sie von der Geschwindigkeit der Nvidia-GPUs – auch in Laptops – profitieren können, habe ich Ihnen hier bereits einmal umfassend geschildert: Der Kreativbooster: NVIDIA Studio (das gezeigte Notebook ist inzwischen ausverkauft; Sie müssen nur darauf achten, dass Sie möglichst viel mehr als 6 GB Video-RAM und eine Nvidia-RTX-Grafikkarte verbaut haben, wenn Sie ein ähnliches Gerät für Stable Diffusion oder auch Blender suchen).

Wenn man bei der Installation beobachtet wird, könnte man schon einmal für einen Hacker gehalten werden. :-D Künstliche Intelligenz: Bilder aus Texten auf eigenem Rechner generieren
Wenn man bei der Installation beobachtet wird, könnte man schon einmal für einen Hacker gehalten werden. 😀

Das Problem – zumindest für mich – war nun, dass ich keine App für Stable Diffusion gefunden habe, die ähnlich einfach wie DiffusionBee für den Mac funktionieren würde und mir den Installationsvorgang abnimmt oder mich zumindest dabei unterstützt. Auch das normale Eingabe-System basiert auf dem Terminal und man muss viele Parameter zur Bildgenerierung immer wieder eingeben.

Installation: Stable Diffusion per Blender-Plug-in

Glücklicherweise bin ich über das Blender-Plug-in Dream-Textures gestolpert. Dieses erlaubt das Erzeugen von nahtlosen Texturen, aber auch von an Fotografie und Concept-Art erinnernden Bildern in Blender. Vor allem aber führt es durch den Installationsvorgang, wenn man einige kleine Hürden kennt. Hier ein Überblick:

  1. Laden Sie zunächst das Plug-in auf Github herunter:
Klicken Sie auf »Code« und dann auf »Download ZIP« Künstliche Intelligenz: Bilder aus Texten auf eigenem Rechner generieren
Klicken Sie auf »Code« und dann auf »Download ZIP«
  1. Öffnen Sie Blender. Wichtig: Starten Sie Blender als Admin! Das war der Hauptgrund, warum meine ersten Installationsversuche der KI-Modelle immer wieder abbrachen.
  2. In den Blender-Voreinstellungen klicken Sie auf »Add-ons > Install« und wählen dort die heruntergeladene ZIP-Datei aus. Aktivieren Sie das Plug-in, indem Sie die Checkbox anklicken. Das Plug-in führt nun durch die Installation:
Klicken Sie nacheinander auf die Schaltflächen und lassen Sie die Downloads abschließen. Bei Hugging Face benötigen Sie einen Account, um die Stable-Diffusion-Weights-Datei herunterladen zu können. Diese benennen Sie in "model.ckpt" um und kopieren Sie in den Ordner, der Ihnen nach einem Klick auf "Open Target Directory" angezeigt wird. Das war es schon.
Klicken Sie nacheinander auf die Schaltflächen und lassen Sie die Downloads abschließen. Bei Hugging Face benötigen Sie einen Account, um die Stable-Diffusion-Weights-Datei herunterladen zu können. Diese benennen Sie in „model.ckpt“ um und kopieren sie in den Ordner, der Ihnen nach einem Klick auf „Open Target Directory“ angezeigt wird. Das war es schon.

Nutzung: Stable Diffusion per Blender-Plug-in

Stellen Sie die Anzeige auf »Image Editor« um. Künstliche Intelligenz: Bilder aus Texten auf eigenem Rechner generieren
Stellen Sie die Anzeige auf »Image Editor« um.
Oben rechts finden Sie dann die Schaltfläche »Dream Textures«. Bei »Prompt« geben Sie Ihre Beschreibung (Englisch) ein. Unter »Preset« wählen Sie, ob eine Textur, ein Concept Artwork oder ein fotografisches Bild erzeugt werden soll. Klicken Sie auf »OK«.
Oben rechts finden Sie dann die Schaltfläche »Dream Textures«. Bei »Prompt« geben Sie Ihre Beschreibung (Englisch) ein. Unter »Preset« wählen Sie, ob eine Textur, ein Concept Artwork oder ein fotografisches Bild erzeugt werden soll. Klicken Sie auf »OK«.
Aus dem "diffusen Rauschen" wird über die Nvidia-RTX-Karte nun ein "stabiles" ;-) Ergebnis erzeugt.
Aus dem „diffusen Rauschen“ wird über die Nvidia-RTX-Karte nun ein „stabiles“ 😉 Ergebnis erzeugt.
Die Einstellungen für das erzeugte Bild auf dem nächsten Screenshot. Die Option »Seamless« erzeugt ein nahtlos kachelbares Muster.
Die Einstellungen für das erzeugte Bild auf dem nächsten Screenshot. Die Option »Seamless« erzeugt ein nahtlos kachelbares Muster.
Über »Image > Save as« können Sie das Bild speichern. Künstliche Intelligenz: Bilder aus Texten auf eigenem Rechner generieren
Über »Image > Save as« können Sie das Bild speichern.

Meine Experimente

Natürlich habe ich gleich mal die verschiedensten Ideen ausprobiert. Hier eine kleine Auswahl, was Stable Diffusion für mich produziert hat. Die Bilder sind alle 512 × 512 px groß. Für eine weitere Verwendung würde ich diese mit Topaz Gigapixel AI hochskalieren.

Viel Spaß beim Anschauen der Bilder, und vielleicht probieren Sie es gleich selbst einmal aus!

Künstliche Intelligenz: Bilder aus Texten auf eigenem Rechner generieren
Künstliche Intelligenz: Bilder aus Texten auf eigenem Rechner generieren
Künstliche Intelligenz: Bilder aus Texten auf eigenem Rechner generieren
Künstliche Intelligenz: Bilder aus Texten auf eigenem Rechner generieren
Künstliche Intelligenz: Bilder aus Texten auf eigenem Rechner generieren

Im DOCMAshop finden Sie alle Infos zum aktuellen Heft: Das ausführliche Inhaltsverzeichnis, einige Seiten als Kostprobe sowie alle Möglichkeiten, das gedruckte Heft zu abonnieren. Erfahren Sie dort auch mehr über unsere preiswerten Online-Abos – jetzt ab 3,99 € pro Monat.

Zeig mehr

Olaf Giermann

Sein Erstkontakt mit Photoshop erfolgte 2003 an der Uni, an der das Programm als reine Scanner-Software eingesetzt wurde. Inzwischen gilt Giermann sprichwörtlich als das »Photoshop-Lexikon« im deutschsprachigen Raum und teilt sein Wissen in DOCMA, in Video­kursen und in Seminaren.

Ähnliche Artikel

3 Kommentare

  1. Für Photoshop unter Windows gibt es Stable Diffusion als Plug-In; man kann es über Creative Cloud Desktop>Applikationen>Stock und Marktplatz>Stable Diffusion herunterladen, muß sich allerdings wegen der API gesondert registrieren.

    1. Das Stable Diffusion Plug-in von Christian Cantrell nutzt den Cloud-Dienst von Dream Studio. Man hat zwei Dollar zum Ausprobieren frei, dann muss man Credits hinzukaufen.

      Das Plug-in von Flying Dog kostet 89 $ und muss für die lokale Anwendung vergleichsweise aufwendig eingerichtet werden.

      Hier in meinem Blogbeitrag geht es nur um die einfach und lokal ausführbaren Möglichkeiten, die nichts weiter kosten. JFYI

Schreibe einen Kommentar

Das könnte Dich interessieren
Schließen
Schaltfläche "Zurück zum Anfang"