Stability AI hat kürzlich ein neues KI-Modell namens Stable Video Diffusion vorgestellt, das in der Lage ist, kurze Videoclips aus Text- und Bildinputs zu generieren. Dieses Modell basiert auf dem erfolgreichen Stable Diffusion-Modell für statische Bilder und könnte die Zukunft der Videogenerierung revolutionieren.
Stable Video Diffusion ist in zwei Varianten verfügbar, die jeweils Videos mit 14 oder 25 Bildern pro Sekunde erzeugen können. Die Auflösung beträgt 576 x 1024 Pixel. Die Verarbeitungszeit beträgt weniger als 2 Minuten. Das Modell ist derzeit nur für Forschungszwecke und nicht für den kommerziellen Einsatz gedacht.
Stable Video Diffusion hat das Potenzial, in verschiedenen Branchen eingesetzt zu werden, wie z.B. Medien, Unterhaltung, Bildung und Marketing. Es ermöglicht es Benutzern, Text- und Bildinputs in lebendige Szenen und kinematografische Erzeugnisse umzuwandeln.
Das Modell ist unter einer nicht-kommerziellen Community-Lizenz verfügbar, die auf der Website von Stability AI zu finden ist. Die Lizenz enthält bestimmte Einschränkungen und Bedingungen für die Verwendung des Modells.
Stability AI behauptet, dass Stable Video Diffusion besser abschneidet als andere Video-KI-Modelle, wie z.B. die von Runway und Pika Labs. Unabhängige Vergleiche der Modelle gibt es jedoch noch nicht.
Stable Video Diffusion ist ein wichtiger Schritt in der Entwicklung von KI-Modellen für die Videogenerierung. Stability AI plant, das Modell weiter zu verbessern und es für den kommerziellen Einsatz freizugeben. Die Zukunftsaussichten für diese Technologie sind vielversprechend und könnten die Art und Weise, wie wir Videos erstellen und konsumieren, revolutionieren.
* KI-Zusammenfassungen können Fehler enthalten. Alle Angaben ohne Gewähr.