Midjourney sorgt erneut für Aufsehen in der KI-Szene – diesmal mit einer ganz neuen Funktion: Aus KI-Bildern werden bewegte Clips. Was genau kann das neue Videomodell?
Das kalifornische Unternehmen Midjourney, bisher vor allem bekannt für seine beeindruckenden Bild-Kreationen, hat sein erstes Videomodell veröffentlicht. Mit dem neuen „Image-to-Video“-Feature lassen sich bestehende Midjourney-Bilder animieren – mit nur wenigen Klicks in der Web-Oberfläche. Ziel ist es nicht nur, Bewegung ins Bild zu bringen, sondern langfristig ganze 3D-Welten in Echtzeit zu simulieren.
Die Bedienung ist denkbar einfach: Ein neuer „Animate“-Button ermöglicht die Wahl zwischen automatischer Bewegung oder präziser, manueller Steuerung. Je nach Wunsch können Nutzer zwischen ruhiger „Low motion“- und dynamischer „High motion“-Animation wählen. Dabei gilt: Je komplexer die Bewegung, desto eher kann es zu Unschärfen kommen – ein Kompromiss, den viele KI-Anwendungen derzeit noch machen.
Ein echtes Plus: Auch externe Bilder lassen sich animieren. Einfach ins Interface ziehen, als „Start Frame“ markieren und über einen Textprompt Bewegung definieren. Die fertigen Videos sind etwa fünf Sekunden lang, lassen sich mehrfach verlängern und kommen als MP4-Datei mit 480p und 24 Bildern pro Sekunde – allerdings ohne Upscaling.
Was kostet der Spaß? Ein Videojob ist rund achtmal teurer als ein Bildjob – laut Midjourney aber immer noch um ein Vielfaches günstiger als vergleichbare Angebote. Für Pro-Nutzer testet das Unternehmen außerdem einen günstigeren „Relax Mode“, bei dem die Preisstruktur flexibel angepasst werden soll.
Midjourney sieht in dem neuen Modell einen wichtigen Zwischenschritt: Die Vision ist klar – ein System, das nicht nur Bilder, sondern interaktive Welten in Echtzeit erschafft. Erste Erkenntnisse fließen bereits in die Verbesserung der bestehenden Bildmodelle ein. Man darf also gespannt sein, wohin die Reise geht.