国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

[Stable Diffusion]AnimateDiff :最穩(wěn)定的文本生成視頻插件

這篇具有很好參考價值的文章主要介紹了[Stable Diffusion]AnimateDiff :最穩(wěn)定的文本生成視頻插件。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

一、AnimateDiff簡介

AnimateDiff采用控制模塊來影響Stable Diffusion模型,通過大量短視頻剪輯的訓練,它能夠調(diào)整圖像生成過程,生成一系列與訓練視頻剪輯相似的圖像。簡言之,AnimateDiff通過訓練大量短視頻來優(yōu)化圖像之間的過渡,確保視頻幀的流暢性。

與傳統(tǒng)的SD模型訓練方式不同,AnimateDiff通過大量短視頻的訓練來提高圖像之間的連續(xù)性,使得生成的每一張圖像都能經(jīng)過AnimateDiff微調(diào),最終拼接成高質(zhì)量短視頻。

stable diffusion animate diff,AnimateDiff,stable diffusion,音視頻

二、安裝AnimateDiff

要使用AnimateDiff,需要安裝SD插件和AnimateDiff模型。

插件安裝:如果你可以科學上網(wǎng),你可以直接在擴展->從網(wǎng)址安裝中填入https://github.com/continue-revolution/sd-webui-animatediff.git

stable diffusion animate diff,AnimateDiff,stable diffusion,音視頻

模型下載:安裝插件后,下載AnimateDiff模型并將其放置在stable-diffusion-webui/extensions/sd-webui-animatediff/model/目錄下。

https://huggingface.co/guoyww/animatediff/resolve/main/mm_sd_v15_v2.ckpt

安裝完成后,重新啟動Stable Diffusion,在文生圖頁面中將看到AnimateDiff插件的配置選項。

stable diffusion animate diff,AnimateDiff,stable diffusion,音視頻

三、視頻生成

第一步:輸入關(guān)鍵字

  • 模型:majicMIX realistic 麥橘寫實_v7

  • 提示詞:a young girl in white with long strait hair wearing earrings and with red lipstick,clean skin,in the style of minimalist sets,piles/stacks,kitsch and camp charm,accessories.vibrant colorful portrait.waist-above shot,professional photography,duobaca,<lora:花樣年華_v1.0:0.6>,

  • 反向提示詞:bad-artist,bad-artist-anime,bad-hands-5,bad-image-v2-39000,bad-picture-chill-75v,bad_prompt,bad_prompt_version2,badhandv4,NG_DeepNegative_V1_75T,EasyNegative,2girls,3girls,(nsfw:1.3),

第二步:配置AnimateDiff

介紹以下幾個基礎(chǔ)參數(shù):

  • Motion Module:使用AnimateDiff模型

  • Enable AnimateDiff:啟用

  • FPS:每秒幀數(shù)(每幀為一張圖片)

  • Number of frames:總幀數(shù)??値瑪?shù)/FPS = 視頻長度,例如,上述參數(shù)會生成4秒的視頻。

第三步:生成視頻

點擊生成按鈕,觀察效果。

在中間效果圖中,你會看到生成了16張圖像(總幀數(shù))。

stable diffusion animate diff,AnimateDiff,stable diffusion,音視頻

視頻效果:

stable diffusion animate diff,AnimateDiff,stable diffusion,音視頻

四、細節(jié)優(yōu)化:

AnimateDiff支持與其他插件結(jié)合使用。使用adetail插件可改善臉部細節(jié)問題,可以直接啟用。

連續(xù)性優(yōu)化:

啟用AnimateDiff的Frame Interpolation功能,將Frame Interpolation設(shè)置為FILM,并將Interp X設(shè)置為FPS的倍數(shù),比如將其設(shè)置為10。

你還可以啟用反向幀功能(Add Reverse Frame),這相當于正向播放視頻一次,再反向播放一次,實際上會提升視頻的流暢度。

stable diffusion animate diff,AnimateDiff,stable diffusion,音視頻

五、遇到的問題

提示詞長度問題:圖片提示詞的長度不能超過75。

啟用高清修復,GPU很容易會崩潰。

圖片分辨率不能太大。

多次生成視頻時報錯:如果多次生成視頻時出現(xiàn)以下錯誤信息:"Expected weight to be a vector of size equal to the number of channels in input, but got weight of shape [1280] and input of shape [16, 2560, 9, 9]" 你需要在啟動SD時刪除--xformers參數(shù)。

stable diffusion animate diff,AnimateDiff,stable diffusion,音視頻

這篇文章介紹了AnimateDiff的基本用法和優(yōu)化方法,希望對想了解AnimateDiff動畫的朋友有幫助。文章來源地址http://www.zghlxwxcb.cn/news/detail-764342.html

到了這里,關(guān)于[Stable Diffusion]AnimateDiff :最穩(wěn)定的文本生成視頻插件的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔相關(guān)法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • Stable Diffusion——嘗試如何正確的使用【AnimateDiff】生成動圖——4種方法測試

    Stable Diffusion——嘗試如何正確的使用【AnimateDiff】生成動圖——4種方法測試

    給的提示詞與正常生成圖片的操作一樣。 ?封面圖片生成信息:種子(654742741) Celebrity face, jet black long hair, beautiful woman, wearing a white shirt, front facing photo of upper body, photo taken, ultra clear, cute, loli, natural black pupils, divine eyes, Chinese style, symmetrical, straight facial features, no stretching, first

    2024年01月16日
    瀏覽(41)
  • stable diffusion視頻生成插件deforum安裝詳解,問題報錯的簡處理辦法

    stable diffusion視頻生成插件deforum安裝詳解,問題報錯的簡處理辦法

    ????????最近看了網(wǎng)友們用stabled diffusion制作的視頻,感覺很夢幻,雖然它的原理很簡單,不外乎就是用stabled diffusion的圖片生成功能,根據(jù)目標視頻的幀或者提示詞等參數(shù),生成一張張圖片幀,然后拼接成一段視頻。但如果這個工作換成我們手工來操作的話,那效率就太

    2024年02月14日
    瀏覽(20)
  • 文字轉(zhuǎn)圖片生成系統(tǒng)-Stable diffusion穩(wěn)定擴散模型

    文字轉(zhuǎn)圖片生成系統(tǒng)-Stable diffusion穩(wěn)定擴散模型

    二話不說先上效果圖:(附帶代碼和模型資源文件)? 讓它畫一個超級汽車在海邊。。? 近期百度推出了文言一心, 一個能回答問題,能根據(jù)文字描述繪制圖片的服務(wù),前期可能不太完善出現(xiàn)了一些失誤,不過這個idea還是相當不錯的 ? 這個東西挺好哈,作為文學創(chuàng)作,生成

    2024年02月09日
    瀏覽(27)
  • Stable Diffusion + AnimateDiff運用

    Stable Diffusion + AnimateDiff運用

    1.安裝AnimateDiff,重啟webui 2.下載對應的模型,最好到c站下載,google colab的資源有可能會出現(xiàn)下載問題 https://civitai.com/models/108836 3.下載完成后,你可以隨便抽卡了。 抽卡完成后固定seed,然后打開這個插件,然后通過填寫一下參數(shù),點生成就可以開始生成。可以首先固定生成好

    2024年02月08日
    瀏覽(22)
  • 穩(wěn)定擴散美學梯度(Stable Diffusion Aesthetic Gradients):一種創(chuàng)新的圖像生成技術(shù)...

    項目地址:https://gitcode.com/vicgalle/stable-diffusion-aesthetic-gradients 如果你對藝術(shù)、人工智能和計算機視覺有熱情,那么你一定不能錯過 Vicgalle\\\'s Stable Diffusion Aesthetic Gradients項目。這個開源項目利用深度學習算法生成具有藝術(shù)感的漸變圖像,其獨特之處在于能夠模仿各種藝術(shù)風格。

    2024年04月24日
    瀏覽(20)
  • Amazon SageMaker + Stable Diffusion 搭建文本生成圖像模型

    Amazon SageMaker + Stable Diffusion 搭建文本生成圖像模型

    如果我們的 計算機視覺 系統(tǒng)要真正理解視覺世界,它們不僅必須能夠識別圖像,而且必須能夠生成圖像 。 文本到圖像的 AI 模型僅根據(jù)簡單的文字輸入就可以生成圖像 。 近兩年,以ChatGPT為代表的AIGC技術(shù)嶄露頭角,逐漸從學術(shù)研究的象牙塔邁向工業(yè)應用的廣闊天地。隨著下

    2024年04月09日
    瀏覽(40)
  • Stable-Diffusion深度學習文本到圖像生成模型

    https://zh.wikipedia.org/zh-cn/Stable_Diffusion https://en.wikipedia.org/wiki/Stable_Diffusion https://github.com/Stability-AI/stablediffusion Stability AI https://github.com/CompVis/stable-diffusion Stable Diffusion是2022年發(fā)布的深度學習文本到圖像生成模型。 它主要用于根據(jù)文本的描述產(chǎn)生詳細圖像,盡管它也可以應用于

    2024年02月11日
    瀏覽(23)
  • Stable Diffusion 動畫SD-Animatediff V2

    Stable Diffusion 動畫SD-Animatediff V2

    AI不僅可以生成令人驚嘆的圖片,還能給這些圖片注入生命,讓它們動起來。 這就是AnimateDiff要做的事情,一個神奇的工具,能將靜態(tài)的AI生成圖像轉(zhuǎn)換成動畫。 本次介紹基于SD如何實現(xiàn)這個神奇的方法。 進入SD頁面在擴展下輸入網(wǎng)址 https://github.com/continue-revolution/sd-webui-anim

    2024年02月07日
    瀏覽(21)
  • 擴散模型實戰(zhàn)(十):Stable Diffusion文本條件生成圖像大模型

    擴散模型實戰(zhàn)(十):Stable Diffusion文本條件生成圖像大模型

    ?擴散模型實戰(zhàn)(一):基本原理介紹 擴散模型實戰(zhàn)(二):擴散模型的發(fā)展 擴散模型實戰(zhàn)(三):擴散模型的應用 擴散模型實戰(zhàn)(四):從零構(gòu)建擴散模型 擴散模型實戰(zhàn)(五):采樣過程 擴散模型實戰(zhàn)(六):Diffusers DDPM初探 擴散模型實戰(zhàn)(七):Diffusers蝴蝶圖像生成實

    2024年02月03日
    瀏覽(23)
  • stable diffusion為什么能用于文本到圖像的生成

    stable diffusion為什么能用于文本到圖像的生成

    ? 推薦基于穩(wěn)定擴散(stable diffusion) AI 模型開發(fā)的自動紋理工具: DreamTexture.js自動紋理化開發(fā)包 - NSDT 如果你還沒有看過它:穩(wěn)定擴散是一個文本到圖像的生成模型,你可以輸入一個文本提示,比如“一個人一半尤達一半甘道夫”,然后接收一個圖像(512x512像素)作為輸出,

    2024年02月03日
    瀏覽(21)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包