1. 介紹
11 月 21 日,Stability AI 推出了 Stable Video Diffusion,這是 Stability AI 的第一個基于圖像模型 Stable Diffusion 的生成式視頻基礎(chǔ)模型。
目前 Stability AI 已經(jīng)在 GitHub 上開源了 Stable Video Diffusion 的代碼,在 Hugging Face 上也可以找到模型本地運行所需要的 weights。
「GitHub」
https://github.com/Stability-AI/generative-models
「Hugging Face」
https://huggingface.co/stabilityai/stable-video-diffusion-img2vid-xt
目前該視頻模型可以很容易地適配下游各種任務(wù),并計劃基于此基礎(chǔ)模型建立一系列模型,類似于圍繞 stable diffusion 建立一個生態(tài)系統(tǒng)。
在外部評估中,Stable Video Diffusion 發(fā)布的兩種圖片生視頻的模型 SVD 和 SVD-XT,在用戶偏好研究中,已經(jīng)超過了 Runway 和 Pika Labs。
2. 局限性
需要注意的是:
1、Stability AI 強調(diào),此模型現(xiàn)階段還不適用于實際或者商業(yè)應(yīng)用。
2、網(wǎng)頁的體驗?zāi)壳斑€未向所有人開放,可以在這里申請候補(https://stability.ai/contact)。
另外,stable-video-diffusion-img2vid-xt 還有一些局限性,在 Hugging Face 上也說明了,該模型僅用于研究目的。
局限性:
1、生成的視頻相當(dāng)短(<=4秒),并且該模型無法實現(xiàn)完美的照片級別的視頻。
2、當(dāng)前模型可能會生成沒有運動的視頻,或非常緩慢的相機平移的視頻。
3、無法通過文本控制模型。
4、模型無法呈現(xiàn)清晰的文本。
5、面孔和人物可能無法正確生成。
6、模型的自編碼部分是有損耗的。
3. 如何體驗
Hugging Face 上的體驗地址:https://huggingface.co/spaces/multimodalart/stable-video-diffusion
不過上傳圖片點生成后,提示「This application is too busy」。
后來看到國外一位開發(fā)者 mkshing 的分享:https://colab.research.google.com/github/mkshing/notebooks/blob/main/stable_video_diffusion_img2vid.ipynb
打開鏈接后,點擊「代碼執(zhí)行程序」-「全部運行」就可以了,過程有點慢,感興趣的小伙伴可以跑一下~
關(guān)于 Stable Video Diffusion 更多詳細的介紹,可以查看論文:https://stability.ai/research/stable-video-diffusion-scaling-latent-video-diffusion-models-to-large-datasets文章來源:http://www.zghlxwxcb.cn/news/detail-764950.html
4. 參考網(wǎng)址
https://stability.ai/news/stable-video-diffusion-open-ai-video-model文章來源地址http://www.zghlxwxcb.cn/news/detail-764950.html
到了這里,關(guān)于AI 視頻 | Stable Video Diffusion 來了?。ǜ襟w驗地址)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!