國慶假期除了加班以外,總歸是要找點有意思的事來給自己做一做的,碰巧4號看到了一個比較有意思的視頻號,有一個元宇宙虛擬人的短視頻,秉著一切技術(shù)一定有人分享,所有代碼必然開源的想法,我果然找到了網(wǎng)上開源的資料和代碼,還是MIT實驗室開源的。
麻省理工學(xué)院媒體實驗室(MIT Media Lab)的研究人員開源了一個虛擬角色生成工具。該工具結(jié)合了面部、手勢、語音和動作領(lǐng)域的人工智能模型,可用于創(chuàng)建各種音頻和視頻輸出,一舉登上《Nature Machine Intelligence》。
該項目主要用于音頻或視頻驅(qū)動視頻,暫不支持文本驅(qū)動視頻。主要用于醫(yī)療視頻或其他視頻通話時保護個人隱私視頻驅(qū)動視頻,使著名的歷史或現(xiàn)代人栩栩如生。
項目地址:https://github.com/mitmedialab/AI-generated-characters
大概分為如下的幾個環(huán)節(jié):
數(shù)據(jù)準備
函數(shù)定義,
人物選擇,
驅(qū)動上傳:支持的方式有,錄音,音頻,視頻
數(shù)據(jù)準備:
https://github.com/AliaksandrSiarohin/first-order-model
https://github.com/Rudrabha/Wav2Lip
這里有一個實現(xiàn),請大家玩:
https://colab.research.google.com/drive/1y0YigI1RiTVd2Qr6HHpesAwYoovcvZaE?usp=sharing#scrollTo=9M320pz78nl7文章來源:http://www.zghlxwxcb.cn/news/detail-440813.html
參考資料:
https://www.johngo689.com/75188/
ttps://news.mit.edu/2021/ai-generated-characters-for-good-1216
https://www.nature.com/articles/s42256-021-00417-9
https://www.media.mit.edu/articles/characters-for-good-created-by-artificial-intelligence/文章來源地址http://www.zghlxwxcb.cn/news/detail-440813.html
到了這里,關(guān)于人工智能學(xué)習(xí)——一起來做一個虛擬數(shù)字人吧的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!