国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

嘗試著在Stable Diffusion里邊使用SadTalker進(jìn)行數(shù)字人制作

這篇具有很好參考價(jià)值的文章主要介紹了嘗試著在Stable Diffusion里邊使用SadTalker進(jìn)行數(shù)字人制作。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

首先需要標(biāo)明的是,我這里是圖片說話類型,而且是看了知識星球AI破局俱樂部大航海數(shù)字人手冊進(jìn)行操作的。寫下這篇文章是防止我以后遺忘。
我使用的基礎(chǔ)軟件是Stable Diffusion,SadTalker是作為插件放進(jìn)來的,需要注意的是這對自己的電腦GPU要求比較高,至少需要8G,至少我的電腦是8G顯存。

下載并安裝ffmpeg

下載并安裝ffmpeg,這一步的作用是語音格式的各種轉(zhuǎn)換,虛擬數(shù)字人能開口說話,需要我們上傳自己的語音,如果格式不符合會自動轉(zhuǎn)換。
到https://ffmpeg.org/download.html選擇自己操作系統(tǒng)然后選擇下載格式。
file

選擇下載的類型,我選擇全量版的。
file

然后我解壓到D:\VideoSoft目錄下。
file

需要配置環(huán)境變量了。
Windows+r同時(shí)按下,然后輸入SYSTEMPROPERTIESADVANCED,然后點(diǎn)擊確定。

file

然后選擇高級,點(diǎn)擊環(huán)境變量。
file

選擇Path,然后點(diǎn)擊編輯。
file

然后點(diǎn)擊新建。
file

把你上邊解壓的目錄找到bin那級的目錄放到環(huán)境變量里邊,然后點(diǎn)擊確定
file

把上一級窗口也點(diǎn)擊確定。
file

系統(tǒng)屬性這一級窗口也點(diǎn)擊確定
file

然后同時(shí)按下Windows+r,輸入cmd然后按下確定鍵。
file

然后輸入ffmpeg -version,要是顯示出來很多內(nèi)容,那么就是正常安裝好了。
file

Stable Diffusion安裝插件

我使用的Stable Diffusion是秋葉版的。
file

下載擴(kuò)展

點(diǎn)擊擴(kuò)展,選擇從網(wǎng)址安裝,然后把git倉庫https://github.com/OpenTalker/SadTalker.git放入指定的位置,然后點(diǎn)擊安裝。
file

發(fā)現(xiàn)報(bào)錯(cuò)如下:

GitCommandError: Cmd('git') failed due to: exit code(128) cmdline: git clone -v -- https://github.com/OpenTalker/SadTalker.git D:\sd-webui-aki\sd-webui-aki-v4.1\tmp\SadTalker stderr: 'Cloning into 'D:\sd-webui-aki\sd-webui-aki-v4.1\tmp\SadTalker'... fatal: unable to access 'https://github.com/OpenTalker/SadTalker.git/': Failed to connect to github.com port 443 after 21039 ms: Couldn't connect to server '

file

我到https://github.com/OpenTalker/SadTalker里邊,下載源代碼的zip包。
file

然后把壓縮包解壓至Stable Diffusion啟動器所在的目錄下一級目錄extensions里邊,目錄如下所示。
file

checkpoint文件下載和配置,

需要到https://github.com/OpenTalker/SadTalker/releases,下載以下四個(gè)文件。
file

然后當(dāng)前網(wǎng)頁上邊,往下滑動,點(diǎn)開Assets,然后下載紅圈中的文件。
file

將上邊下載好的文件放入到自己D:\sd-webui-aki\sd-webui-aki-v4.1\extensions\SadTalker\checkpoints里邊,很有可能,你沒有checkpoints這個(gè)目錄,自己新建一個(gè)就行了。
file

另外hub.zip需要解壓。
file

下載GFPGAN模型

到https://drive.google.com/file/d/19AIBsmfcHW6BRJmeqSFlG5fL445Xmsyi下載文件解壓到D:\sd-webui-aki\sd-webui-aki-v4.1\extensions\SadTalker里邊。
file

接下來就是重新啟動Stable Diffusion進(jìn)行畫圖了。點(diǎn)擊SadTalker,然后上傳圖片,之后上傳音頻,然后點(diǎn)擊生成。
file

需要等待。
file

生成之后如下圖:
file

無法上傳視頻,沒有辦法展示效果了。

我是知識星球上約有3萬人的AI破局俱樂部初創(chuàng)合伙人,我的微信號是zhaoseaside,歡迎大家加我,相互學(xué)習(xí)AI知識和個(gè)人IP知識,畢竟這是未來兩大風(fēng)口。
大家要是需要文檔中的文件,可以加我備注SadTalker,我用百度網(wǎng)盤發(fā)給你。文章來源地址http://www.zghlxwxcb.cn/news/detail-845631.html

到了這里,關(guān)于嘗試著在Stable Diffusion里邊使用SadTalker進(jìn)行數(shù)字人制作的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • SadTalker:讓stable diffusion人物說話的創(chuàng)新工具

    SadTalker:讓stable diffusion人物說話的創(chuàng)新工具

    SadTalker是一個(gè)GitHub項(xiàng)目,能夠根據(jù)圖片和音頻合成面部說話的視頻?,F(xiàn)已支持stable diffusion webui,可以結(jié)合音頻合成面部說話的視頻。本文詳細(xì)介紹了安裝過程和使用教程。

    2024年02月08日
    瀏覽(27)
  • 打造AI虛擬數(shù)字人,Stable Diffusion+Sadtalker教程

    站長筆記 2 個(gè)月前 1 1k Stable Diffusion是一個(gè)能夠根據(jù) 文本描述生成高質(zhì)量圖片的深度學(xué)習(xí)模型 ,它使用了一種叫做 潛在擴(kuò)散模型的生成網(wǎng)絡(luò)架構(gòu) ,可以在普通的GPU上運(yùn)行。Sadtalker是一個(gè)能夠根 據(jù)圖片和音頻生成 視頻的開源項(xiàng)目 ,它使用了一種叫做 SadNet的神經(jīng)網(wǎng)絡(luò) ,可以

    2024年02月11日
    瀏覽(23)
  • 基于SadTalker的AI主播,Stable Diffusion也可用

    基于SadTalker的AI主播,Stable Diffusion也可用

    基于之前的AI主播的的學(xué)習(xí)基礎(chǔ) 基于Wav2Lip的AI主播 和 基于Wav2Lip+GFPGAN的高清版AI主播,這次嘗試一下VideoRetalking生成效果。 總體來說,面部處理效果要好于Wav2Lip,而且速度相對于Wav2Lip+GFPGAN也提升很多,也支持自由旋轉(zhuǎn)角度,但是如果不修改源碼的情況下,視頻的部分截取稍

    2023年04月23日
    瀏覽(16)
  • Stable Diffusion——嘗試如何正確的使用【AnimateDiff】生成動圖——4種方法測試

    Stable Diffusion——嘗試如何正確的使用【AnimateDiff】生成動圖——4種方法測試

    給的提示詞與正常生成圖片的操作一樣。 ?封面圖片生成信息:種子(654742741) Celebrity face, jet black long hair, beautiful woman, wearing a white shirt, front facing photo of upper body, photo taken, ultra clear, cute, loli, natural black pupils, divine eyes, Chinese style, symmetrical, straight facial features, no stretching, first

    2024年01月16日
    瀏覽(41)
  • stable diffusion模型初嘗試

    stable diffusion模型初嘗試

    提示:文章寫完后,目錄可以自動生成,如何生成可參考右邊的幫助文檔 文章目錄 前言 一、 目錄 文章目錄 前言 一、stable diffusion - webUI的下載安裝以及配置 二、模型訓(xùn)練 剛開始嘗試基于stable diffusion跑模型,試著做一些小項(xiàng)目,網(wǎng)上能查到的資料著實(shí)有限,部分甚至需要科

    2024年02月12日
    瀏覽(24)
  • 簡單嘗試:ChatGLM-6B + Stable diffusion管道連接

    簡單嘗試:ChatGLM-6B + Stable diffusion管道連接

    1. 拋去算法設(shè)計(jì)方面,僅從工程角度考慮的話,Stable diffusion的潛力挖掘幾乎完全受輸入文字影響。 2. BLIP2所代表的一類多模態(tài)模型走的路線是\\\"擴(kuò)展賦能LLM模型\\\",思路簡單清晰,收益明顯。LLM + Stable diffusion的問題應(yīng)該也不大。 3. ChatGLM-6B 和 Stable diffusion都有huggingface中的pipe

    2024年02月09日
    瀏覽(13)
  • Stable Diffusion實(shí)現(xiàn)AI繪畫,嘗試向?qū)嶋H業(yè)務(wù)邁進(jìn)...

    Stable Diffusion實(shí)現(xiàn)AI繪畫,嘗試向?qū)嶋H業(yè)務(wù)邁進(jìn)...

    前置: ? ? ? ? 由于處于學(xué)習(xí)初期,懂得較少以及可能會出現(xiàn)理解錯(cuò)誤等情況,故而文章僅供參考學(xué)習(xí)使用,旨在分享知識,共同學(xué)習(xí),不能作為依據(jù),如有錯(cuò)誤,感謝指出,文章主題分為兩部分,學(xué)習(xí)部分也就理論知識,實(shí)踐部分主要包括問題及解決方案。 1.提示詞分類以

    2024年02月09日
    瀏覽(24)
  • Stable Diffusion使用civitai的模型進(jìn)行AI繪圖

    Stable Diffusion使用civitai的模型進(jìn)行AI繪圖

    準(zhǔn)備工作 1.安裝Stable Diffusion(B站秋葉大佬有完整包,開箱即用) 2.啟動之后找到圖中位置下載civitai助手 下載完成之后,點(diǎn)擊頁面下方“重載客戶端”。 下載模型 1.進(jìn)入C站,隨便找一個(gè)點(diǎn)進(jìn)去,復(fù)制瀏覽器的網(wǎng)址 2.找到圖中的tab,如果沒有,說明civitai沒有安裝成功 ?按照圖

    2024年02月11日
    瀏覽(25)
  • 在Kaggle上使用Stable Diffusion進(jìn)行AI繪圖

    在Kaggle上使用Stable Diffusion進(jìn)行AI繪圖

    因?yàn)槭褂?Stable Diffusion 進(jìn)行AI繪圖需要 GPU ,這讓其應(yīng)用得到了限制 本文介紹如何在 Kaggle 中部署 Stable Diffusion ,并使用免費(fèi)的P100 GPU進(jìn)行推理(每周可免費(fèi)使用30小時(shí)),部署好后可以在 任意移動端 使用。 本項(xiàng)目在 stable-diffusion-webui-kaggle 基礎(chǔ)上進(jìn)行改進(jìn),原作者Github項(xiàng)目地

    2024年02月08日
    瀏覽(37)
  • 使用Dino+SAM+Stable diffusion 自動進(jìn)行圖片的修改

    使用Dino+SAM+Stable diffusion 自動進(jìn)行圖片的修改

    SAM 是Mata發(fā)布的“Segment Anything Model”可以準(zhǔn)確識別和提取圖像中的對象。 它可以分割任何的圖片,但是如果需要分割特定的物體,則需要需要點(diǎn)、框的特定提示才能準(zhǔn)確分割圖像。 所以本文將介紹一種稱為 Grounding Dino 的技術(shù)來自動生成 SAM 進(jìn)行分割所需的框。 除了分割以外

    2024年02月03日
    瀏覽(16)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包