Runway, das Startup, das den beliebten Stable Diffusion AI-Bildgenerator mitentwickelt hat, hat ein KI-Modell veröffentlicht, das jede Textbeschreibung – wie „Schildkröten, die am Himmel fliegen“ – akzeptiert und drei Sekunden passendes Videomaterial generiert.
Unter Berufung auf Sicherheits-und Geschäftsgründe gibt Runway das Modell weder zu Beginn weit heraus, noch wird es Open-Source wie Stable Diffusion sein. Das Text-zu-Video-Modell mit dem Namen Gen-2 wird zunächst auf Discord über eine Warteliste auf der Runway-Website verfügbar sein.
Die Verwendung von KI zur Generierung von Videos aus Texteingaben ist nicht neu. Meta Platforms und Google veröffentlichten beide Ende letzten Jahres Forschungsarbeiten zu Text-zu-Video-KI-Modellen. Der Unterschied besteht jedoch darin, dass das Text-zu-Video-KI-Modell von Runway der breiten Öffentlichkeit zugänglich gemacht wird, sagte Cristobal Valenzuela, CEO von Runway.
Runway hofft, dass Kreative und Filmemacher das Produkt Valenzuela verwenden werden sagte.
Letzten Monat demonstrierte der Chiphersteller Qualcomm vor dem Mobile World Congress (MWC) 2023 Stable Diffusion 1.5, den KI-Bildgenerator, der auf einem Android-Handy ohne Netzwerkzugriff ausgeführt wird. Laut Qualcomm die Bereitstellung des Unternehmens des KI-Tools, das normalerweise viel Rechenleistung benötigt, ist in der Lage, Bilder in wenigen Sekunden zu erzeugen. Das Unternehmen gab keine Details über die Smartphone-Hardware preis, die verwendet wurde, um das KI-Tool für die lokale Ausführung auf Smartphones zu optimieren.
Das beliebte generative KI-Tool verbraucht bekanntermaßen viel Rechenleistung, um ausgeführt zu werden, was auch der Fall ist warum mehrere Dienste, die sich darauf verlassen, diese Aktivitäten auf großen Servern statt auf dem Smartphone oder Computer eines Benutzers ausführen.
© Thomson Reuters 2023
Affiliate-Links können automatisch generiert werden – siehe unsere Ethikerklärung für Einzelheiten.