国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

首次引入大模型!Bert-vits2-Extra中文特化版40秒素材復(fù)刻巫師3葉奈法

這篇具有很好參考價(jià)值的文章主要介紹了首次引入大模型!Bert-vits2-Extra中文特化版40秒素材復(fù)刻巫師3葉奈法。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

首次引入大模型!Bert-vits2-Extra中文特化版40秒素材復(fù)刻巫師3葉奈法

Bert-vits2項(xiàng)目又更新了,更新了一個(gè)新的分支:中文特化,所謂中文特化,即針對中文音色的特殊優(yōu)化版本,純中文底模效果百尺竿頭更進(jìn)一步,同時(shí)首次引入了大模型,使用國產(chǎn)IDEA-CCNL/Erlangshen-MegatronBert-1.3B大模型作為Bert特征提取,基本上完全解決了發(fā)音的bad case,同時(shí)在情感表達(dá)方面有大幅提升,可以作為先前V1.0.1純中文版本更好的替代。

更多情報(bào)請參見Bert-vits2項(xiàng)目官網(wǎng):

https://github.com/fishaudio/Bert-VITS2/releases/tag/Extra

本次我們基于Bert-vits2中文特化版本通過40秒素材復(fù)刻巫師3角色葉奈法(Yennefer)的音色。

配置Bert-vits2中文特化版本

首先克隆項(xiàng)目:

git clone https://github.com/v3ucn/Bert-VITS2-Extra_-.git

注意這里是針對官方的Extra分支的修改版本,增加了音頻切分和轉(zhuǎn)寫。

隨后下載新的純中文底模:

https://openi.pcl.ac.cn/Stardust_minus/Bert-VITS2/modelmanage/show_model

同時(shí)還需要下載IDEA-CCNL/Erlangshen-MegatronBert-1.3B大模型的預(yù)訓(xùn)練模型:

值得一提的是,這個(gè)新煉的純中文底模非常牛逼,官方作者僅通過一個(gè)5秒的素材就可以完美復(fù)刻音色。

關(guān)于作者的中文特化底模極限測試:

https://www.bilibili.com/video/BV1Fa4y1B7HB/

隨后將模型放入對應(yīng)的文件夾,bert模型文件結(jié)構(gòu)如下:

E:\work\Bert-VITS2-Extra\bert>tree /f  
Folder PATH listing for volume myssd  
Volume serial number is 7CE3-15AE  
E:.  
│   bert_models.json  
│  
├───bert-base-japanese-v3  
│       .gitattributes  
│       config.json  
│       README.md  
│       tokenizer_config.json  
│       vocab.txt  
│  
├───bert-large-japanese-v2  
│       .gitattributes  
│       config.json  
│       README.md  
│       tokenizer_config.json  
│       vocab.txt  
│  
├───chinese-roberta-wwm-ext-large  
│       .gitattributes  
│       added_tokens.json  
│       config.json  
│       pytorch_model.bin  
│       README.md  
│       special_tokens_map.json  
│       tokenizer.json  
│       tokenizer_config.json  
│       vocab.txt  
│  
├───deberta-v2-large-japanese  
│       .gitattributes  
│       config.json  
│       pytorch_model.bin  
│       README.md  
│       special_tokens_map.json  
│       tokenizer.json  
│       tokenizer_config.json  
│  
├───deberta-v2-large-japanese-char-wwm  
│       .gitattributes  
│       config.json  
│       pytorch_model.bin  
│       README.md  
│       special_tokens_map.json  
│       tokenizer_config.json  
│       vocab.txt  
│  
├───deberta-v3-large  
│       .gitattributes  
│       config.json  
│       generator_config.json  
│       pytorch_model.bin  
│       README.md  
│       spm.model  
│       tokenizer_config.json  
│  
├───Erlangshen-DeBERTa-v2-710M-Chinese  
│       config.json  
│       special_tokens_map.json  
│       tokenizer_config.json  
│       vocab.txt  
│  
├───Erlangshen-MegatronBert-1.3B-Chinese  
│       config.json  
│       pytorch_model.bin  
│       vocab.txt  
│  
└───Erlangshen-MegatronBert-3.9B-Chinese  
        config.json  
        special_tokens_map.json  
        tokenizer_config.json  
        vocab.txt

很明顯,這里關(guān)于Erlangshen-MegatronBert大模型,其實(shí)有三個(gè)參數(shù)選擇,有710m和1.3b以及3.9B,作者選擇了居中的1.3b大模型。

這里介紹一下國產(chǎn)的Erlangshen-MegatronBert大模型。

Erlangshen-MegatronBert 是一個(gè)具有 39 億參數(shù)的中文 BERT 模型,它是目前最大的中文 BERT 模型之一。這個(gè)模型的編碼器結(jié)構(gòu)為主,專注于解決各種自然語言理解任務(wù)。它同時(shí),鑒于中文語法和大規(guī)模訓(xùn)練的難度,使用了四種預(yù)訓(xùn)練策略來改進(jìn) BERT,Erlangshen-MegatronBert 模型適用于各種自然語言理解任務(wù),包括文本生成、文本分類、問答等,這個(gè)模型的權(quán)重和代碼都是開源的,可以在 Hugging Face 和 CSDN 博客等平臺(tái)上找到。

Erlangshen-MegatronBert 模型可以應(yīng)用于多種領(lǐng)域,如 AI 模擬聲音、數(shù)字人虛擬主播等。

另外需要注意的是,clap模型也已經(jīng)回歸,結(jié)構(gòu)如下:

E:\work\Bert-VITS2-Extra\emotional\clap-htsat-fused>tree /f  
Folder PATH listing for volume myssd  
Volume serial number is 7CE3-15AE  
E:.  
    .gitattributes  
    config.json  
    merges.txt  
    preprocessor_config.json  
    pytorch_model.bin  
    README.md  
    special_tokens_map.json  
    tokenizer.json  
    tokenizer_config.json  
    vocab.json  
  
No subfolders exist

clap主要負(fù)責(zé)情感風(fēng)格的引導(dǎo)。2.3版本去掉了,中文特化又加了回來。

至此模型就配置好了。

Bert-vits2中文特化版本訓(xùn)練和推理

首先把葉奈法的音頻素材放入角色的raw目錄。

隨后需要對數(shù)據(jù)進(jìn)行預(yù)處理操作:

python3 audio_slicer.py  
python3 short_audio_transcribe.py

這里是切分和轉(zhuǎn)寫。

接著運(yùn)行預(yù)處理的webui:

python3 webui_preprocess.py

這里需要注意的是,bert特征文件的生成會(huì)變慢,因?yàn)樾枰竽P偷膮⑴c。

后續(xù)應(yīng)該會(huì)有一些改進(jìn)。

數(shù)據(jù)處理之后,應(yīng)該包括重采樣音頻,bert特征文件,以及clap特征文件:

E:\work\Bert-VITS2-Extra\Data\Yennefer\wavs>tree /f  
Folder PATH listing for volume myssd  
Volume serial number is 7CE3-15AE  
E:.  
    Yennefer_0.bert.pt  
    Yennefer_0.emo.pt  
    Yennefer_0.spec.pt  
    Yennefer_0.wav  
    Yennefer_1.bert.pt  
    Yennefer_1.emo.pt  
    Yennefer_1.spec.pt  
    Yennefer_1.wav  
    Yennefer_10.bert.pt  
    Yennefer_10.emo.pt  
    Yennefer_10.spec.pt  
    Yennefer_10.wav  
    Yennefer_11.bert.pt  
    Yennefer_11.emo.pt  
    Yennefer_11.spec.pt  
    Yennefer_11.wav  
    Yennefer_12.bert.pt  
    Yennefer_12.emo.pt  
    Yennefer_12.spec.pt  
    Yennefer_12.wav  
    Yennefer_13.bert.pt  
    Yennefer_13.emo.pt  
    Yennefer_13.spec.pt  
    Yennefer_13.wav  
    Yennefer_14.bert.pt  
    Yennefer_14.emo.pt  
    Yennefer_14.spec.pt  
    Yennefer_14.wav  
    Yennefer_15.bert.pt  
    Yennefer_15.emo.pt  
    Yennefer_15.spec.pt  
    Yennefer_15.wav  
    Yennefer_16.bert.pt  
    Yennefer_16.emo.pt  
    Yennefer_16.spec.pt  
    Yennefer_16.wav  
    Yennefer_17.bert.pt  
    Yennefer_17.emo.pt  
    Yennefer_17.spec.pt  
    Yennefer_17.wav  
    Yennefer_18.bert.pt  
    Yennefer_18.emo.pt  
    Yennefer_18.spec.pt  
    Yennefer_18.wav  
    Yennefer_19.bert.pt  
    Yennefer_19.emo.pt  
    Yennefer_19.spec.pt  
    Yennefer_19.wav  
    Yennefer_2.bert.pt  
    Yennefer_2.emo.pt  
    Yennefer_2.spec.pt  
    Yennefer_2.wav  
    Yennefer_20.bert.pt  
    Yennefer_20.emo.pt  
    Yennefer_20.spec.pt  
    Yennefer_20.wav  
    Yennefer_3.bert.pt  
    Yennefer_3.emo.pt  
    Yennefer_3.spec.pt  
    Yennefer_3.wav  
    Yennefer_4.bert.pt  
    Yennefer_4.emo.pt  
    Yennefer_4.spec.pt  
    Yennefer_4.wav  
    Yennefer_5.bert.pt  
    Yennefer_5.emo.pt  
    Yennefer_5.spec.pt  
    Yennefer_5.wav  
    Yennefer_6.bert.pt  
    Yennefer_6.emo.pt  
    Yennefer_6.spec.pt  
    Yennefer_6.wav  
    Yennefer_7.bert.pt  
    Yennefer_7.emo.pt  
    Yennefer_7.spec.pt  
    Yennefer_7.wav  
    Yennefer_8.bert.pt  
    Yennefer_8.emo.pt  
    Yennefer_8.spec.pt  
    Yennefer_8.wav  
    Yennefer_9.bert.pt  
    Yennefer_9.emo.pt  
    Yennefer_9.spec.pt  
    Yennefer_9.wav

隨后訓(xùn)練即可:

python3 train_ms.py

結(jié)語

Bert-vits2中文特化版本引入了大模型,導(dǎo)致入門的門檻略微變高了一點(diǎn),官方說至少需要8G顯存才可以跑,實(shí)際上6G也是可以的,如果bert大模型選擇參數(shù)更少的版本,相信運(yùn)行的門檻會(huì)進(jìn)一步的降低。

最后奉上整合包鏈接:文章來源地址http://www.zghlxwxcb.cn/news/detail-777124.html

整合包鏈接:https://pan.quark.cn/s/754f236ef864

到了這里,關(guān)于首次引入大模型!Bert-vits2-Extra中文特化版40秒素材復(fù)刻巫師3葉奈法的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • Bert-vits2-2.3-Final,Bert-vits2最終版一鍵整合包(復(fù)刻生化危機(jī)艾達(dá)王)

    Bert-vits2-2.3-Final,Bert-vits2最終版一鍵整合包(復(fù)刻生化危機(jī)艾達(dá)王)

    近日,Bert-vits2發(fā)布了最新的版本2.3-final,意為最終版,修復(fù)了一些已知的bug,添加基于 WavLM 的 Discriminator(來源于 StyleTTS2),令人意外的是,因情感控制效果不佳,去除了 CLAP情感模型,換成了相對簡單的 BERT 融合語義方式。 事實(shí)上,經(jīng)過2.2版本的測試,CLAP情感模型的效果

    2024年02月04日
    瀏覽(30)
  • Bert-vits2最終版Bert-vits2-2.3云端訓(xùn)練和推理(Colab免費(fèi)GPU算力平臺(tái))

    Bert-vits2最終版Bert-vits2-2.3云端訓(xùn)練和推理(Colab免費(fèi)GPU算力平臺(tái))

    對于深度學(xué)習(xí)初學(xué)者來說,JupyterNoteBook的腳本運(yùn)行形式顯然更加友好,依托Python語言的跨平臺(tái)特性,JupyterNoteBook既可以在本地線下環(huán)境運(yùn)行,也可以在線上服務(wù)器上運(yùn)行。GoogleColab作為免費(fèi)GPU算力平臺(tái)的執(zhí)牛耳者,更是讓JupyterNoteBook的腳本運(yùn)行形式如虎添翼。 本次我們利用

    2024年02月04日
    瀏覽(23)
  • Python - Bert-VITS2 語音推理服務(wù)部署

    Python - Bert-VITS2 語音推理服務(wù)部署

    目錄 一.引言 二.服務(wù)搭建 1.服務(wù)配置 2.服務(wù)代碼 3.服務(wù)踩坑 三.服務(wù)使用 1.服務(wù)啟動(dòng) 2.服務(wù)調(diào)用 3.服務(wù)結(jié)果 四.總結(jié) 上一篇文章我們介紹了如果使用 conda 搭建 Bert-VITS2 最新版本的環(huán)境并訓(xùn)練自定義語音,通過 1000 個(gè) epoch 的訓(xùn)練,我們得到了自定義語音模型,本文基于上文得

    2024年02月02日
    瀏覽(27)
  • Python - Bert-VITS2 自定義訓(xùn)練語音

    Python - Bert-VITS2 自定義訓(xùn)練語音

    目錄 一.引言 二.前期準(zhǔn)備 1.Conda 環(huán)境搭建 2.Bert 模型下載 3.預(yù)訓(xùn)練模型下載? 三.數(shù)據(jù)準(zhǔn)備 1.音頻文件批量處理 2.訓(xùn)練文件地址生成 3.模型訓(xùn)練配置生成 4.訓(xùn)練文件重采樣 5.Tensor pt 文件生成 四.模型訓(xùn)練 1.預(yù)訓(xùn)練模型 2.模型訓(xùn)練 3.模型收菜 五.總結(jié) 前面我們通過視頻 OCR 技術(shù)識(shí)

    2024年01月20日
    瀏覽(25)
  • bert-vits2本地部署報(bào)錯(cuò)疑難問題匯總

    bert-vits2本地部署報(bào)錯(cuò)疑難問題匯總

    bert-vits2.3 win 和wsl bert-vits2本地部署報(bào)錯(cuò)疑難問題匯總 問題1: Conda安裝requirements里面依賴出現(xiàn)ERROR: No matching distribution found for opencc==1.1.6 解決方法 問題2: error: Microsoft Visual C++ 14.0 or greater is required. Get it with \\\"Microsoft C++ Build Tool 解決方法 安裝VS2019 單獨(dú)安裝2個(gè)組件 問題3: 訓(xùn)練報(bào)錯(cuò)

    2024年02月19日
    瀏覽(28)
  • Bert-VITS-2 效果挺好的聲音克隆工具

    持中日英三語訓(xùn)練和推理。內(nèi)置干聲分離,切割和標(biāo)注工具,開箱即用。請點(diǎn)下載量右邊的符號(hào)查看鏡像所對應(yīng)的具體版本號(hào)。 教程地址: sjj???????CodeWithGPU | 能復(fù)現(xiàn)才是好算法 CodeWithGPU | GitHub AI算法復(fù)現(xiàn)社區(qū),能復(fù)現(xiàn)才是好算法 https://www.codewithgpu.com/i/fishaudio/Ber

    2024年02月21日
    瀏覽(18)
  • 基于GPT3.5逆向 和 本地Bert-Vits2-2.3 的語音智能助手

    基于GPT3.5逆向 和 本地Bert-Vits2-2.3 的語音智能助手

    各位讀者你們好,我最近在研究一個(gè)語音助手的項(xiàng)目,是基于GPT3.5網(wǎng)頁版的逆向和本地BertVits2-2.3 文字轉(zhuǎn)語音,能實(shí)現(xiàn)的事情感覺還挺多,目前實(shí)現(xiàn)【無需翻墻,國內(nèi)網(wǎng)絡(luò)發(fā)送消息,返回答案文字和語音】,網(wǎng)站已上線并未公開鏈接,以下是演示GIF: 前端使用uni-app完成,登錄

    2024年01月24日
    瀏覽(26)
  • 本地訓(xùn)練,開箱可用,Bert-VITS2 V2.0.2版本本地基于現(xiàn)有數(shù)據(jù)集訓(xùn)練(原神刻晴)

    本地訓(xùn)練,開箱可用,Bert-VITS2 V2.0.2版本本地基于現(xiàn)有數(shù)據(jù)集訓(xùn)練(原神刻晴)

    按照固有思維方式,深度學(xué)習(xí)的訓(xùn)練環(huán)節(jié)應(yīng)該在云端,畢竟本地硬件條件有限。但事實(shí)上,在語音識(shí)別和自然語言處理層面,即使相對較少的數(shù)據(jù)量也可以訓(xùn)練出高性能的模型,對于預(yù)算有限的同學(xué)們來說,也沒必要花冤枉錢上“云端”了,本次我們來演示如何在本地訓(xùn)練

    2024年02月05日
    瀏覽(20)
  • 義無反顧馬督工,Bert-vits2V210復(fù)刻馬督工實(shí)踐(Python3.10)

    義無反顧馬督工,Bert-vits2V210復(fù)刻馬督工實(shí)踐(Python3.10)

    Bert-vits2更新了版本V210,修正了日/英的bert對齊問題,效果進(jìn)一步優(yōu)化;對底模使用的數(shù)據(jù)進(jìn)行優(yōu)化和加量,減少finetune失敗以及電音的可能性;日語bert更換了模型,完善了多語言推理。 更多情報(bào)請參考Bert-vits2官網(wǎng): 最近的事情大家也都曉得了,馬督工義無反顧帶頭沖鋒,身

    2024年02月05日
    瀏覽(21)
  • 栩栩如生,音色克隆,Bert-vits2文字轉(zhuǎn)語音打造鬼畜視頻實(shí)踐(Python3.10)

    諸公可知目前最牛逼的TTS免費(fèi)開源項(xiàng)目是哪一個(gè)?沒錯(cuò),是Bert-vits2,沒有之一。它是在本來已經(jīng)極其強(qiáng)大的Vits項(xiàng)目中融入了Bert大模型,基本上解決了VITS的語氣韻律問題,在效果非常出色的情況下訓(xùn)練的成本開銷普通人也完全可以接受。 BERT的核心思想是通過在大規(guī)模文本語

    2024年02月08日
    瀏覽(19)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包