Adobe geht mit der Creative Cloud in eine neue Ära: Auf der MAX 2025 hat das Unternehmen nicht nur eigene KI-Assistenten vorgestellt, sondern öffnet seine Plattform auch für Dutzende externe Modelle von Partnern wie Google, OpenAI oder Runway. Was bedeutet das für Kreative?
Die neuen dialogorientierten Assistenten in Photoshop, Express und Firefly sollen die tägliche Arbeit vereinfachen. Kreative können künftig mit einem KI-Agenten chatten, Aufgaben delegieren und sich gezielt Tutorials oder Empfehlungen anzeigen lassen. Dabei bleibt die Kontrolle vollständig beim Nutzer – jederzeit lässt sich zwischen dem KI-gestützten Arbeiten und den klassischen Werkzeugen wechseln. Mit „Project Moonlight“ zeigt Adobe zusätzlich, wie ein zentraler Kreativ-Assistent künftig mit den eigenen Apps und sozialen Plattformen vernetzt sein könnte.
Ein weiteres Highlight ist die tiefe Integration externer Modelle. Ob Google Gemini, Runway, Luma AI oder Ideogram – Adobe-Nutzer können erstmals gezielt auswählen, welches KI-Modell in Photoshop oder Firefly zum Einsatz kommt. Das ist ein deutliches Signal: Offenheit und Flexibilität werden zum Kern der Adobe-Strategie.
Mit dem Firefly Image Model 5 zieht zudem ein neues Bildmodell in die Cloud ein. Es erzeugt native 4K-Renderings, unterstützt natürliches „Layered Image Editing“ und kann Bildanpassungen in Alltagssprache verstehen. Auch Audio und Video bleiben nicht außen vor: Firefly bekommt Soundtrack-Generator, Voiceover-Funktion und sogar einen webbasierten Videoeditor mit vorgefertigten Stilvorlagen.
Für Unternehmen bietet Adobe mit „Firefly Foundry“ die Möglichkeit, maßgeschneiderte KI-Modelle zu entwickeln – trainiert auf dem eigenen Bild- oder Videomaterial. Kooperationen mit Plattformen wie Amazon Ads oder LinkedIn sollen den Weg von der Idee bis zur Veröffentlichung noch effizienter gestalten. Und YouTube-Creators profitieren künftig von einem neuen „Create for YouTube“-Bereich in der mobilen Premiere-App.
