国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Bert-vits2-2.3-Final,Bert-vits2最終版一鍵整合包(復(fù)刻生化危機(jī)艾達(dá)王)

這篇具有很好參考價(jià)值的文章主要介紹了Bert-vits2-2.3-Final,Bert-vits2最終版一鍵整合包(復(fù)刻生化危機(jī)艾達(dá)王)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

Bert-vits2-2.3-Final,Bert-vits2最終版一鍵整合包(復(fù)刻生化危機(jī)艾達(dá)王)

近日,Bert-vits2發(fā)布了最新的版本2.3-final,意為最終版,修復(fù)了一些已知的bug,添加基于 WavLM 的 Discriminator(來(lái)源于 StyleTTS2),令人意外的是,因情感控制效果不佳,去除了 CLAP情感模型,換成了相對(duì)簡(jiǎn)單的 BERT 融合語(yǔ)義方式。

事實(shí)上,經(jīng)過(guò)2.2版本的測(cè)試,CLAP情感模型的效果還是不錯(cuò)的,關(guān)于2.2版本,請(qǐng)移步:

Bert-vits2-v2.2新版本本地訓(xùn)練推理整合包(原神八重神子英文模型miko)

更多情報(bào)請(qǐng)關(guān)注Bert-vits2官網(wǎng):

https://github.com/fishaudio/Bert-VITS2/releases/tag/v2.3

本次我們基于最新版Bert-vits2-2.3來(lái)復(fù)刻生化危機(jī)經(jīng)典角色艾達(dá)王(ada wong)的聲音。

Bert-vits2-2.3項(xiàng)目配置

首先克隆項(xiàng)目:

git clone https://github.com/v3ucn/Bert-vits2-V2.3.git

注意該項(xiàng)目fork自Bert-vits2的2.3分支,在其基礎(chǔ)上增加了素材切分和轉(zhuǎn)寫(xiě)標(biāo)注等功能,更易于使用。

隨后進(jìn)入項(xiàng)目:

cd Bert-vits2-V2.3

安裝依賴:

pip3 install -r requirements.txt

隨后下載對(duì)應(yīng)的模型,首先是bert模型:

https://openi.pcl.ac.cn/Stardust_minus/Bert-VITS2/modelmanage/show_model

放入到bert目錄:

E:\work\Bert-VITS2-2.3\bert>tree /f  
Folder PATH listing for volume myssd  
Volume serial number is 7CE3-15AE  
E:.  
│   bert_models.json  
│  
├───bert-base-japanese-v3  
│       .gitattributes  
│       config.json  
│       README.md  
│       tokenizer_config.json  
│       vocab.txt  
│  
├───bert-large-japanese-v2  
│       .gitattributes  
│       config.json  
│       README.md  
│       tokenizer_config.json  
│       vocab.txt  
│  
├───chinese-roberta-wwm-ext-large  
│       .gitattributes  
│       added_tokens.json  
│       config.json  
│       pytorch_model.bin  
│       README.md  
│       special_tokens_map.json  
│       tokenizer.json  
│       tokenizer_config.json  
│       vocab.txt  
│  
├───deberta-v2-large-japanese  
│       .gitattributes  
│       config.json  
│       pytorch_model.bin  
│       README.md  
│       special_tokens_map.json  
│       tokenizer.json  
│       tokenizer_config.json  
│  
├───deberta-v2-large-japanese-char-wwm  
│       .gitattributes  
│       config.json  
│       pytorch_model.bin  
│       README.md  
│       special_tokens_map.json  
│       tokenizer_config.json  
│       vocab.txt  
│  
└───deberta-v3-large  
        .gitattributes  
        config.json  
        generator_config.json  
        pytorch_model.bin  
        README.md  
        spm.model  
        tokenizer_config.json

注意,其中每個(gè)子目錄中的pytorch_model.bin就是bert模型本體。

隨后還得下載clap模型,雖然推理已經(jīng)把clap去掉了,同時(shí)下載wav2vec2-large-robust-12-ft-emotion-msp-dim模型,放入到項(xiàng)目的emotional目錄:

E:\work\Bert-VITS2-2.3\emotional>tree /f  
Folder PATH listing for volume myssd  
Volume serial number is 7CE3-15AE  
E:.  
├───clap-htsat-fused  
│       .gitattributes  
│       config.json  
│       merges.txt  
│       preprocessor_config.json  
│       pytorch_model.bin  
│       README.md  
│       special_tokens_map.json  
│       tokenizer.json  
│       tokenizer_config.json  
│       vocab.json  
│  
└───wav2vec2-large-robust-12-ft-emotion-msp-dim  
        .gitattributes  
        config.json  
        LICENSE  
        preprocessor_config.json  
        pytorch_model.bin  
        README.md  
        vocab.json

最后下載底模:

https://huggingface.co/OedoSoldier/Bert-VITS2-2.3

放入到角色的models目錄即可。

請(qǐng)注意這次2.3的底模是4個(gè)文件。

Bert-vits2-2.3數(shù)據(jù)預(yù)處理

把艾達(dá)王的語(yǔ)音素材放入到Data/ada/raw目錄中,執(zhí)行切分腳本:

python3 audio_slicer.py

會(huì)切分成小片素材:

E:\work\Bert-VITS2-2.3\Data\ada\raw>tree /f  
Folder PATH listing for volume myssd  
Volume serial number is 7CE3-15AE  
E:.  
    ada_0.wav  
    ada_1.wav  
    ada_10.wav  
    ada_11.wav  
    ada_12.wav  
    ada_13.wav  
    ada_14.wav  
    ada_15.wav  
    ada_16.wav  
    ada_17.wav  
    ada_18.wav  
    ada_19.wav  
    ada_2.wav  
    ada_20.wav  
    ada_21.wav  
    ada_22.wav  
    ada_23.wav  
    ada_24.wav  
    ada_25.wav  
    ada_26.wav  
    ada_3.wav  
    ada_4.wav  
    ada_5.wav  
    ada_6.wav  
    ada_7.wav  
    ada_8.wav  
    ada_9.wav

隨后運(yùn)行轉(zhuǎn)寫(xiě)和標(biāo)注:

python3 short_audio_transcribe.py

程序返回:

E:\work\Bert-VITS2-2.3\venv\lib\site-packages\whisper\timing.py:58: NumbaDeprecationWarning: The 'nopython' keyword argument was not supplied to the 'numba.jit' decorator. The implicit default value for this argument is currently False, but it will be changed to True in Numba 0.59.0. See https://numba.readthedocs.io/en/stable/reference/deprecation.html#deprecation-of-object-mode-fall-back-behaviour-when-using-jit for details.  
  def backtrace(trace: np.ndarray):  
Data/ada/raw  
Detected language: en  
I do. The kind you like.  
Processed: 1/27  
Detected language: en  
Now where's the amber?  
Processed: 2/27  
Detected language: en  
Leave the girl. She's lost no matter what.  
Processed: 3/27  
Detected language: en  
You walk away now, and who knows?  
Processed: 4/27  
Detected language: en  
Maybe you'll live to meet me again.  
Processed: 5/27  
Detected language: en  
And I might get you that greeting you were looking for.  
Processed: 6/27  
Detected language: en  
How about we continue this discussion another time?  
Processed: 7/27  
Detected language: en  
Sorry, nothing yet.  
Processed: 8/27  
Detected language: en  
But my little helper is creating  
Processed: 9/27  
Detected language: en  
Quite the commotion.  
Processed: 10/27  
Detected language: en  
Everything will work out just fine.  
Processed: 11/27  
Detected language: en  
He's a good boy. Predictable.  
Processed: 12/27  
Detected language: en  
The deal was, we get you out of here when you deliver the amber. No amber, no protection, Louise.  
Processed: 13/27  
Detected language: en  
Nothing personal, Leon.  
Processed: 14/27  
Detected language: en  
Louise and I had an arrangement.  
Processed: 15/27  
Detected language: en  
Don't worry, I'll take good care of it.  
Processed: 16/27  
Detected language: en  
Just one question.  
Processed: 17/27  
Detected language: en  
What are you planning to do with this?  
Processed: 18/27  
Detected language: en  
So, we're talking millions of casualties?  
Processed: 19/27  
Detected language: en  
We're changing course. Now.  
Processed: 20/27  
Detected language: en  
You can stop right there, Leon.  
Processed: 21/27  
Detected language: en  
wouldn't make me use this.  
Processed: 22/27  
Detected language: en  
Would you? You don't seem surprised.  
Processed: 23/27  
Detected language: en  
Interesting.  
Processed: 24/27  
Detected language: en  
Not a bad move  
Processed: 25/27  
Detected language: en  
Very smooth. Ah, Leon.  
Processed: 26/27  
Detected language: en  
You know I don't work and tell.

注意,這里whiper會(huì)報(bào)一個(gè)警告,如果覺(jué)得不好看,可以修改timing.py第58行:

修改前  
@numba.jit  
def backtrace(trace: np.ndarray):  
  
修改后  
@numba.jit(nopython=True)  
def backtrace(trace: np.ndarray):

隨后,運(yùn)行web預(yù)處理界面:

python3 webui_preprocess.py

隨后按照頁(yè)面提示操作即可:

至此,數(shù)據(jù)預(yù)處理就結(jié)束了。

Bert-vits2-2.3訓(xùn)練和推理

在根目錄運(yùn)行命令:

python3 train_ms.py

模型會(huì)在models目錄生成:

E:\work\Bert-VITS2-2.3\Data\ada\models>tree/f  
Folder PATH listing for volume myssd  
Volume serial number is 7CE3-15AE  
E:.  
    G_150.pth

隨后開(kāi)啟推理頁(yè)面進(jìn)行推理即可:

python3 webui.py

新的推理頁(yè)面增加了使用輔助文本的語(yǔ)意來(lái)輔助生成對(duì)話(語(yǔ)言保持與主文本相同),即以提示詞prompt的形式來(lái)定制化生成語(yǔ)音的風(fēng)格。

但又不能使用使用指令式文本(如:開(kāi)心),要使用帶有強(qiáng)烈情感的文本(如:我好快樂(lè)?。。。?/p>

這就導(dǎo)致生成的語(yǔ)音情感風(fēng)格比較玄學(xué):

因?yàn)槟愕貌煌5卣{(diào)整prompt來(lái)測(cè)試效果,不如之前地clap情感的audio prompt來(lái)的直觀,但客觀上講,通過(guò)bert語(yǔ)義文本引導(dǎo)的風(fēng)格化情感語(yǔ)音還是有一定效果的。

結(jié)語(yǔ)

更新Bert-vits2基礎(chǔ)教程的同時(shí),也學(xué)習(xí)到了很多東西,毫無(wú)疑問(wèn),Bert-vits2讓更多的人領(lǐng)略到了深度學(xué)習(xí)的魅力,它是一個(gè)極其優(yōu)秀的人工智能入門項(xiàng)目,興趣永遠(yuǎn)是最好的老師,與各位共勉,最后奉上Bert-vits2-2.3-Final整合包:

整合包鏈接:https://pan.baidu.com/s/182LZCu5cyR3nH8EoTBLR-g?pwd=v3uc

與眾鄉(xiāng)親同饗。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-760753.html

到了這里,關(guān)于Bert-vits2-2.3-Final,Bert-vits2最終版一鍵整合包(復(fù)刻生化危機(jī)艾達(dá)王)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 義無(wú)反顧馬督工,Bert-vits2V210復(fù)刻馬督工實(shí)踐(Python3.10)

    義無(wú)反顧馬督工,Bert-vits2V210復(fù)刻馬督工實(shí)踐(Python3.10)

    Bert-vits2更新了版本V210,修正了日/英的bert對(duì)齊問(wèn)題,效果進(jìn)一步優(yōu)化;對(duì)底模使用的數(shù)據(jù)進(jìn)行優(yōu)化和加量,減少finetune失敗以及電音的可能性;日語(yǔ)bert更換了模型,完善了多語(yǔ)言推理。 更多情報(bào)請(qǐng)參考Bert-vits2官網(wǎng): 最近的事情大家也都曉得了,馬督工義無(wú)反顧帶頭沖鋒,身

    2024年02月05日
    瀏覽(21)
  • 首次引入大模型!Bert-vits2-Extra中文特化版40秒素材復(fù)刻巫師3葉奈法

    首次引入大模型!Bert-vits2-Extra中文特化版40秒素材復(fù)刻巫師3葉奈法

    Bert-vits2項(xiàng)目又更新了,更新了一個(gè)新的分支:中文特化,所謂中文特化,即針對(duì)中文音色的特殊優(yōu)化版本,純中文底模效果百尺竿頭更進(jìn)一步,同時(shí)首次引入了大模型,使用國(guó)產(chǎn)IDEA-CCNL/Erlangshen-MegatronBert-1.3B大模型作為Bert特征提取,基本上完全解決了發(fā)音的bad case,同時(shí)在情

    2024年02月03日
    瀏覽(34)
  • 本地訓(xùn)練,立等可取,30秒音頻素材復(fù)刻霉霉講中文音色基于Bert-VITS2V2.0.2

    本地訓(xùn)練,立等可取,30秒音頻素材復(fù)刻霉霉講中文音色基于Bert-VITS2V2.0.2

    之前我們使用Bert-VITS2V2.0.2版本對(duì)現(xiàn)有的原神數(shù)據(jù)集進(jìn)行了本地訓(xùn)練,但如果克隆對(duì)象脫離了原神角色,我們就需要自己構(gòu)建數(shù)據(jù)集了,事實(shí)上,深度學(xué)習(xí)模型的性能和泛化能力都依托于所使用的數(shù)據(jù)集的質(zhì)量和多樣性,本次我們?cè)诒镜乩肂ert-VITS2V2.0.2對(duì)霉霉講中文的音色進(jìn)

    2024年02月05日
    瀏覽(19)
  • Python - Bert-VITS2 語(yǔ)音推理服務(wù)部署

    Python - Bert-VITS2 語(yǔ)音推理服務(wù)部署

    目錄 一.引言 二.服務(wù)搭建 1.服務(wù)配置 2.服務(wù)代碼 3.服務(wù)踩坑 三.服務(wù)使用 1.服務(wù)啟動(dòng) 2.服務(wù)調(diào)用 3.服務(wù)結(jié)果 四.總結(jié) 上一篇文章我們介紹了如果使用 conda 搭建 Bert-VITS2 最新版本的環(huán)境并訓(xùn)練自定義語(yǔ)音,通過(guò) 1000 個(gè) epoch 的訓(xùn)練,我們得到了自定義語(yǔ)音模型,本文基于上文得

    2024年02月02日
    瀏覽(27)
  • Python - Bert-VITS2 自定義訓(xùn)練語(yǔ)音

    Python - Bert-VITS2 自定義訓(xùn)練語(yǔ)音

    目錄 一.引言 二.前期準(zhǔn)備 1.Conda 環(huán)境搭建 2.Bert 模型下載 3.預(yù)訓(xùn)練模型下載? 三.數(shù)據(jù)準(zhǔn)備 1.音頻文件批量處理 2.訓(xùn)練文件地址生成 3.模型訓(xùn)練配置生成 4.訓(xùn)練文件重采樣 5.Tensor pt 文件生成 四.模型訓(xùn)練 1.預(yù)訓(xùn)練模型 2.模型訓(xùn)練 3.模型收菜 五.總結(jié) 前面我們通過(guò)視頻 OCR 技術(shù)識(shí)

    2024年01月20日
    瀏覽(25)
  • bert-vits2本地部署報(bào)錯(cuò)疑難問(wèn)題匯總

    bert-vits2本地部署報(bào)錯(cuò)疑難問(wèn)題匯總

    bert-vits2.3 win 和wsl bert-vits2本地部署報(bào)錯(cuò)疑難問(wèn)題匯總 問(wèn)題1: Conda安裝requirements里面依賴出現(xiàn)ERROR: No matching distribution found for opencc==1.1.6 解決方法 問(wèn)題2: error: Microsoft Visual C++ 14.0 or greater is required. Get it with \\\"Microsoft C++ Build Tool 解決方法 安裝VS2019 單獨(dú)安裝2個(gè)組件 問(wèn)題3: 訓(xùn)練報(bào)錯(cuò)

    2024年02月19日
    瀏覽(28)
  • Bert-VITS-2 效果挺好的聲音克隆工具

    持中日英三語(yǔ)訓(xùn)練和推理。內(nèi)置干聲分離,切割和標(biāo)注工具,開(kāi)箱即用。請(qǐng)點(diǎn)下載量右邊的符號(hào)查看鏡像所對(duì)應(yīng)的具體版本號(hào)。 教程地址: sjj???????CodeWithGPU | 能復(fù)現(xiàn)才是好算法 CodeWithGPU | GitHub AI算法復(fù)現(xiàn)社區(qū),能復(fù)現(xiàn)才是好算法 https://www.codewithgpu.com/i/fishaudio/Ber

    2024年02月21日
    瀏覽(18)
  • 如何快速部署本地訓(xùn)練的 Bert-VITS2 語(yǔ)音模型到 Hugging Face

    如何快速部署本地訓(xùn)練的 Bert-VITS2 語(yǔ)音模型到 Hugging Face

    Hugging Face是一個(gè)機(jī)器學(xué)習(xí)(ML)和數(shù)據(jù)科學(xué)平臺(tái)和社區(qū),幫助用戶構(gòu)建、部署和訓(xùn)練機(jī)器學(xué)習(xí)模型。它提供基礎(chǔ)設(shè)施,用于在實(shí)時(shí)應(yīng)用中演示、運(yùn)行和部署人工智能(AI)。用戶還可以瀏覽其他用戶上傳的模型和數(shù)據(jù)集。Hugging Face通常被稱為機(jī)器學(xué)習(xí)界的GitHub,因?yàn)樗岄_(kāi)發(fā)人

    2024年02月01日
    瀏覽(27)
  • 本地訓(xùn)練,開(kāi)箱可用,Bert-VITS2 V2.0.2版本本地基于現(xiàn)有數(shù)據(jù)集訓(xùn)練(原神刻晴)

    本地訓(xùn)練,開(kāi)箱可用,Bert-VITS2 V2.0.2版本本地基于現(xiàn)有數(shù)據(jù)集訓(xùn)練(原神刻晴)

    按照固有思維方式,深度學(xué)習(xí)的訓(xùn)練環(huán)節(jié)應(yīng)該在云端,畢竟本地硬件條件有限。但事實(shí)上,在語(yǔ)音識(shí)別和自然語(yǔ)言處理層面,即使相對(duì)較少的數(shù)據(jù)量也可以訓(xùn)練出高性能的模型,對(duì)于預(yù)算有限的同學(xué)們來(lái)說(shuō),也沒(méi)必要花冤枉錢上“云端”了,本次我們來(lái)演示如何在本地訓(xùn)練

    2024年02月05日
    瀏覽(20)
  • 栩栩如生,音色克隆,Bert-vits2文字轉(zhuǎn)語(yǔ)音打造鬼畜視頻實(shí)踐(Python3.10)

    諸公可知目前最牛逼的TTS免費(fèi)開(kāi)源項(xiàng)目是哪一個(gè)?沒(méi)錯(cuò),是Bert-vits2,沒(méi)有之一。它是在本來(lái)已經(jīng)極其強(qiáng)大的Vits項(xiàng)目中融入了Bert大模型,基本上解決了VITS的語(yǔ)氣韻律問(wèn)題,在效果非常出色的情況下訓(xùn)練的成本開(kāi)銷普通人也完全可以接受。 BERT的核心思想是通過(guò)在大規(guī)模文本語(yǔ)

    2024年02月08日
    瀏覽(19)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包