KI

Adobe integriert das Videomodell Ray3 von Luma AI in die Firefly-App

Adobes Firefly-App bietet jetzt Zugang zum neuen Videomodell Ray3 von Luma AI. Damit können Kreative, Fotografen und Gestalter erstmals eine künstliche Intelligenz nutzen, die Videos nicht nur generiert, sondern auch inhaltlich versteht und gezielt weiterentwickelt. Adobe bietet Kunden mit einem kostenpflichtigen Firefly- oder Creative Cloud Pro-Abonnement bis zum 1. Oktober unbegrenzte Generierungen mit Ray3 an.

Ray3 hebt sich von bisherigen Modellen ab, weil es als erstes System eine sogenannte multimodale Reasoning-Architektur nutzt. Das bedeutet: Die KI kann nicht nur auf Texteingaben reagieren, sondern versteht auch komplexe Zusammenhänge zwischen Bild, Text und Bewegung. Wer etwa eine Szene mit wechselnden Perspektiven, konsistenten Figuren und natürlicher Bewegung plant, kann Ray3 gezielt anweisen und erhält Ergebnisse, die sich wie ein durchdachtes Storyboard entfalten. Die KI prüft dabei ihre eigenen Zwischenergebnisse und verbessert sie selbstständig. So entstehen Videos, die inhaltlich und visuell zusammenhängend wirken – wie aus einem Guss.

Ein weiteres Alleinstellungsmerkmal ist die Unterstützung von High Dynamic Range (HDR) im professionellen ACES2065-1 EXR-Format. Ray3 kann Videos in 10-, 12- und 16-Bit HDR ausgeben. Das eröffnet Fotografen und Filmemachern neue Möglichkeiten: Farben wirken satter, Lichter und Schatten differenzierter. Wer etwa eine Szene mit dramatischem Gegenlicht oder feinen Farbverläufen inszeniert, profitiert von der erweiterten Dynamik. Auch bestehende SDR-Videos (Standard Dynamic Range) lassen sich mit Ray3 in HDR umwandeln und so für hochwertige Produktionen aufbereiten.

Für den schnellen Entwurf bietet Ray3 einen Draft Mode. In diesem Modus entstehen Testvideos bis zu zehnmal schneller als bisher. Kreative können so verschiedene Ideen in kurzer Zeit ausprobieren – etwa unterschiedliche Kamerafahrten durch eine virtuelle Stadt oder alternative Lichtstimmungen für ein Musikvideo. Die Entwürfe lassen sich anschließend gezielt in hochauflösende, finale Videos umwandeln, ohne dass Charaktere, Bewegungen oder Bildaufbau verloren gehen.

Ray3 generiert Videos nativ in Full-HD-Auflösung (1080p). Für Projekte mit höheren Anforderungen steht ein neuronaler Upscaler bereit, der die Clips verlustfrei auf 4K hochrechnet. So lassen sich die Ergebnisse direkt in professionelle Workflows für Werbung, Film oder Social Media einbinden. Funktionen wie Image-to-Video (Animation von Standbildern), Keyframes (gezielte Steuerung von Bewegungsabläufen), Extend (Verlängerung von Szenen) und Loop (nahtlose Endlosschleifen) wurden weiterentwickelt und bieten mehr Kontrolle und Präzision.

Die Integration in Adobe Firefly ermöglicht es, Ray3-Generierungen direkt mit der Creative Cloud zu synchronisieren. So lassen sich die Videos nahtlos in Anwendungen wie Premiere Pro weiterbearbeiten. Adobe betont, dass alle mit Ray3 in Firefly erzeugten Inhalte mit sogenannten Content Credentials versehen werden. Diese digitalen Wasserzeichen zeigen an, welche KI zum Einsatz kam und sorgen für Transparenz im kreativen Prozess. Zudem werden die generierten Inhalte nicht für das Training weiterer KI-Modelle verwendet.

Ray3 richtet sich an ein breites Spektrum von Anwendern: Content Creator können etwa B-Roll-Material für Tutorials oder Social-Media-Clips generieren. Filmemacher und Werbeagenturen nutzen das Modell, um verschiedene visuelle Ansätze zu testen, bevor sie aufwändige Drehs planen. In Japan arbeitet Luma AI mit Dentsu Digital zusammen, um Ray3 in die Werbeproduktion zu integrieren. In der MENA-Region (Nahost und Nordafrika) setzt HUMAIN Create das Modell ein, um kulturell angepasste Inhalte zu entwickeln.

Luma AI versteht Ray3 als ersten Schritt zu einer KI, die kreative Arbeit wirklich unterstützt. Während frühere Modelle oft wie Zufallsgeneratoren wirkten, kann Ray3 gezielt Anweisungen umsetzen, Szenen logisch aufbauen und die Qualität der Ergebnisse selbstständig verbessern. Das Modell ist mehr als doppelt so groß wie sein Vorgänger Ray2 und erfüllt die technischen Anforderungen professioneller Produktionspipelines.

Adobe plant, die Firefly-App weiter auszubauen und regelmäßig neue KI-Modelle von Partnern wie Google, OpenAI, Ideogram, Pika, Black Forest Labs, Runway, Moonvalley und Topaz Labs zu integrieren.

Weitere Informationen finden Sie im Adobe Blog.

Johannes Wilwerding

Johannes Wilwerding hat bereits Mitte der Achziger Jahre und damit vor dem Siegeszug von Photoshop & Co. Erfahrungen in der Digitalisierung von Fotos und in der elektronischen Bildverarbeitung gesammelt. Seit 2001 ist er freiberuflicher Mediengestalter und seit 2005 tätig für das DOCMA-Magazin.

2 Kommentare

  1. „Für den schnellen Entwurf bietet Ray3 einen Draft Mode. In diesem Modus entstehen Testvideos bis zu zehnmal schneller als bisher.“ Wirklich? Ist es „zehnmal schneller“ oder einfach zehn Mal so schnell? Kennt heute noch jemand den Unterschied zwischen dem inflationär verwendeten, reisserischen „x Mal mehr“ vs. „x Mal soviel“? „zehnmal schneller“ ist nämlich 11 Mal so schnell wie davor, was eine derart ungebräuliche Faktorisierung bedeutet, dass man es im normalen Sprachgebrauch kaum verwenden würde. Kommt endlich runter von diesem lähmenden „x Mal MEHR“ und lernt Rechnen und Inbezugsetzen, statt bloss die heute üblichen Phrasen nachzuplärren!

Schreibe einen Kommentar

Bitte melden Sie sich an, um einen Kommentar zu schreiben.

Schaltfläche "Zurück zum Anfang"