Представиха модела Stable Video Diffusion за генериране на кратки видеоклипове
Създателите на модела за машинно образование с отворен код Stable Diffusion показаха Stable Video Diffusion – средство за генериране на къси видеоклипове. Организацията е актуализирала своето вместилище в GitHub и е разгласила нови проучвателен материали.
Предварителната версия на Stable Video Diffusion може да генерира къси видеоклипове с 14 и 25 фрагмента с опция за персонализиране на скоростта от 3 до 30 фрагмента в секунда. Разработчиците са разгласили всичко, което е належащо, с цел да локално пускане, в това число теглата на моделите. За да генерирате видеа, би трябвало да зададете текстово изложение на крайния видеоклип.
Моделът може да бъде приспособен за потребление в лични планове, само че разработчиците означават, че към момента не е подготвен за консолидиране в търговски приложения. Екипът на разработчиците възнамерява да продължи да уголемява опциите на Stable Video Diffusion. В бъдеще той ще бъде употребен като основа за екосистема от решения за генериране на наличие.
Очаква се скоро да бъде показан уеб интерфейс за бърз достъп до Stable Video Diffusion. Желаещите да го употребяват ще би трябвало авансово да се записват. Разработчиците се надяват, че опростеният достъп до модела ще помогне той да се употребява за основаване на рекламни, просветителни и развлекателни материали. Освен това в блога на Stability AI се отбелязва, че при тестванията Stable Video Diffusion се показва по-добре от моделите Runway и Pika Labs.
Кодът и всички нужни материали за локално пускане на Stable Video Diffusion са оповестени в отвореното вместилище GitHub. Заедно с него е налично и в детайли изложение на решението.




