本系列博文為深度學(xué)習(xí)/計(jì)算機(jī)視覺論文筆記,轉(zhuǎn)載請(qǐng)注明出處
標(biāo)題:3D Face Reconstruction in Deep Learning Era: A Survey
鏈接:3D Face Reconstruction in Deep Learning Era: A Survey - PubMed (nih.gov)
摘要
隨著深度學(xué)習(xí)的出現(xiàn)和圖形處理單元的廣泛應(yīng)用,3D人臉重建已成為生物特征識(shí)別最引人入勝的主題。本文探討了3D人臉重建技術(shù)的各個(gè)方面。文中討論了五種技術(shù),分別是
- deep learning(DL,深度學(xué)習(xí))
- epipolar geometry(EG,極線幾何,對(duì)極幾何)
- one-shot learning(OSL,單次學(xué)習(xí),單樣本學(xué)習(xí))
- 3D morphable model(3DMM,3D可變形模型)
- shape from shading methods(SFS,基于陰影形狀的重建,由灰度恢復(fù)深度)
本文深入分析了使用深度學(xué)習(xí)技術(shù)進(jìn)行3D人臉重建。從軟件、硬件、優(yōu)點(diǎn)和缺點(diǎn)的角度討論了不同人臉重建技術(shù)的性能分析。也討論了3D人臉重建技術(shù)的挑戰(zhàn)和未來發(fā)展方向。
1 簡(jiǎn)介
3D人臉重建是生物特征識(shí)別中的一個(gè)問題,其發(fā)展速度因深度學(xué)習(xí)模型的出現(xiàn)而加快。過去五年里,許多3D人臉識(shí)別研究的貢獻(xiàn)者都取得了進(jìn)步(見圖1)。開發(fā)了諸如再演繹和語音驅(qū)動(dòng)的動(dòng)畫、面部操縱、視頻配音、虛擬化妝、投影映射、面部衰老以及面部替換等各種應(yīng)用[1]。
圖1:2016-2021年在3D人臉重建中發(fā)表的研究論文數(shù)量
3D人臉重建面臨許多挑戰(zhàn),如遮擋物移除、化妝移除、表情轉(zhuǎn)移和年齡預(yù)測(cè)。
遮擋物可以是內(nèi)部的或外部的。一些眾所周知的內(nèi)部遮擋物包括頭發(fā)、胡須、髭須和側(cè)臉。外部遮擋物發(fā)生在其他物體/人遮擋了面部的一部分,例如眼鏡、手、瓶子、紙張和口罩[2]。
推動(dòng)3D人臉重建研究增長(zhǎng)的主要原因是多核心中央處理器(CPU)、智能手機(jī)、圖形處理器(GPU)以及諸如谷歌云平臺(tái)(GCP)、亞馬遜網(wǎng)絡(luò)服務(wù)(AWS)和微軟Azure等云應(yīng)用的可用性[3-5]。
3D數(shù)據(jù)用
- voxels(立體像素,體素,pixel+volume+element)
- point cloud(點(diǎn)云)
- a 3D mesh that GPUs can process(可以被GPU處理的3D網(wǎng)格)
表示(見圖2)。近期,研究人員已經(jīng)開始進(jìn)行4D人臉識(shí)別的研究[6, 7]。圖3展示了3D人臉重建的分類。
圖2:3D人臉圖像:a RGB圖像、b深度圖像、c網(wǎng)格圖像、d點(diǎn)云圖像、e體素圖像
圖3:3D人臉重建的分類
1.1 3D人臉重建的一般框架
基于3D重建的面部識(shí)別框架涉及預(yù)處理、深度學(xué)習(xí)和預(yù)測(cè)。圖4顯示了3D面部修復(fù)技術(shù)涉及的階段,可以獲取各種形式的3D圖像,所有這些都有基于需要的不同預(yù)處理步驟。
圖4:3D人臉重建問題的一般框架[9]
面部對(duì)齊(Face alignment)可能會(huì)也可能不會(huì)在發(fā)送到重建階段之前進(jìn)行。Sharma和Kumar [2, 8, 9]在他們的重建技術(shù)中就并未使用面部對(duì)齊。
可以使用各種技術(shù)進(jìn)行面部重建,例如基于3DMM的重建、基于EG的重建、基于OSL的重建、基于DL的重建和基于SFS的重建。此外,預(yù)測(cè)階段需要作為面部重建的結(jié)果。預(yù)測(cè)可以運(yùn)用于面部識(shí)別、情感識(shí)別、性別識(shí)別或年齡估計(jì)的應(yīng)用。
1.2 詞云
詞云展示了3D人臉重建的前100個(gè)關(guān)鍵詞(見圖5)。
圖5:3D人臉重建文獻(xiàn)的詞云
從這個(gè)詞云中,與面部重建算法相關(guān)的關(guān)鍵詞如"3D面部"、“像素”、"圖像"和"重建"被廣泛使用。"3D人臉重建"這個(gè)關(guān)鍵詞吸引了研究人員作為面部識(shí)別技術(shù)的問題領(lǐng)域。
面部重建涉及完成被遮擋的面部圖像。大多數(shù)3D面部重建技術(shù)在重建過程中使用2D圖像[10-12]。最近,研究人員已經(jīng)開始研究網(wǎng)格和體素圖像[2, 8]。生成對(duì)抗網(wǎng)絡(luò)(GANs)用于2D面部的面部交換和面部特征修改[13]。這些還有待使用深度學(xué)習(xí)技術(shù)來探索。
該論文的動(dòng)機(jī)在于對(duì)深度學(xué)習(xí)中的3D點(diǎn)云(deep learning of 3d point clouds)[14]和行人重識(shí)別(person re-identifcation)[15]進(jìn)行詳細(xì)的研究調(diào)查。如圖1所示,在過去的五年中,3D面部研究隨著時(shí)間的推移而不斷增長(zhǎng)。大多數(shù)重建研究都偏好使用基于GAN的深度學(xué)習(xí)技術(shù)。本文旨在研究使用深度學(xué)習(xí)技術(shù)進(jìn)行3D面部重建及其在實(shí)際場(chǎng)景中的應(yīng)用。
本文的貢獻(xiàn)包括:
- 討論了各種3D面部重建技術(shù)的優(yōu)缺點(diǎn)。
- 提出了3D面部重建技術(shù)的硬件和軟件要求。
- 調(diào)查了3D面部重建的數(shù)據(jù)集、性能評(píng)估指標(biāo)和適用性。
- 探討了當(dāng)前和未來3D面部重建技術(shù)面臨的挑戰(zhàn)。
本文的剩余部分組織如下:第2節(jié)介紹了3D人臉重建技術(shù)的變體。第3節(jié)討論了性能評(píng)估指標(biāo),第4節(jié)介紹了用于重建技術(shù)的數(shù)據(jù)集。第5節(jié)討論了重建過程的工具和技術(shù)。第6節(jié)探討了3D面部重建的潛在應(yīng)用。第7節(jié)總結(jié)了當(dāng)前的研究挑戰(zhàn)和未來的研究方向。第8節(jié)提供了結(jié)論性的評(píng)論。
2 3D人臉重建技術(shù)
3D人臉重建技術(shù)被廣泛地分為五個(gè)主要類別,包括基于3D可變形模型(3DMM)的重建、基于深度學(xué)習(xí)(DL)的重建、基于極線幾何(EG)的重建、基于單次學(xué)習(xí)(OSL)的重建和基于陰影形狀(SFS)的重建。圖6展示了3D面部重建技術(shù)。大多數(shù)研究人員正在研究混合(hybrid)面部重建技術(shù),并被認(rèn)為是第六類。
圖6:3D人臉重建技術(shù)
2.1 基于3DMM的重建
3D可變形模型(3DMM)是用于面部外觀和形狀的生成模型 [16]。要生成的所有面部都處于密集的點(diǎn)對(duì)點(diǎn)對(duì)應(yīng)關(guān)系中,這可以通過面部注冊(cè)過程實(shí)現(xiàn)。形態(tài)面(morphs)通過密集對(duì)應(yīng)關(guān)系生成。該技術(shù)的重點(diǎn)是將面部顏色和形狀與其他因素(如照明,亮度,對(duì)比度等)分離開來 [17]。
3DMM由Blanz和Vetter [18]引入。文獻(xiàn)中提供了3DMM的變體 [19-23]。這些模型使用低維表示來表達(dá)面部表情、紋理和身份。Basel Face Model(BFM)是可公開獲取的3DMM模型之一。該模型是通過將與從迭代最近點(diǎn)(ICP)和主成分分析(PCA)得到的掃描面對(duì)應(yīng)的模板網(wǎng)格進(jìn)行注冊(cè)而構(gòu)建的 [24]。
圖7展示了在過去20年中3DMM的逐步改進(jìn)情況 [18,25-28]。圖中呈現(xiàn)了來自Blanz和Vetter 1999年原始論文[18]、2009年第一個(gè)公開可用的可變形模型[25]、最先進(jìn)的面部再現(xiàn)結(jié)果[28]和GAN模型[27]的結(jié)果。
圖7:過去二十年中3DMM的逐步改進(jìn) [17]
Maninchedda等人 [29] 提出了一種基于3D極線幾何的、解決人臉被眼鏡遮擋情況下的自動(dòng)重建方法。他們提出了一種變化分割模型(variational segmentation model),可以表示各種各樣的眼鏡。
Zhang等人 [30] 提出了從RGB-D傳感器捕獲的單個(gè)數(shù)據(jù)幀中重建密集的3D人臉點(diǎn)云的方法。使用K-Means聚類算法捕獲了面部區(qū)域的初始點(diǎn)云。然后使用人工神經(jīng)網(wǎng)絡(luò)(ANN)估計(jì)點(diǎn)云的鄰域。
此外,徑向基函數(shù)(RBF)插值被用來實(shí)現(xiàn)以點(diǎn)云為中心的3D人臉的最終逼近。
Jiang等人 [31] 基于3DMM提出了一種3D人臉恢復(fù)算法(PIFR)。輸入圖像被規(guī)范化以獲取更多有關(guān)面部標(biāo)志可見性的信息。該方法的優(yōu)點(diǎn)是具有位姿不變的面部重建能力。然而,重建需要在大位姿下進(jìn)行改進(jìn)。
在計(jì)算機(jī)視覺領(lǐng)域中,大位姿(large pose)通常指人臉或物體在圖像中的朝向、角度或旋轉(zhuǎn)角度等因素發(fā)生較大變化的情況,例如旋轉(zhuǎn)、縮放和平移等。在人臉重建中,大位姿通常指面部被擺放在非正面朝向,或者面部被部分遮擋的情況。這些情況都增加了面部識(shí)別和重建的難度。
Wu等人 [32] 提出了一種使用單張圖像進(jìn)行3D面部表情重建的技術(shù)。使用級(jí)聯(lián)回歸框架計(jì)算3DMM的參數(shù)。在特征提取階段,使用梯度方向直方圖(HOG)和關(guān)鍵點(diǎn)偏移。
Kollias等人 [33] 提出了一種新技術(shù),用于合成面部表情和正/負(fù)情感程度?;趦r(jià)值-喚醒(VA)技術(shù),從4DFAB數(shù)據(jù)集[34]中注釋了600K幀。該技術(shù)適用于野外面部數(shù)據(jù)集。但是,4DFAB數(shù)據(jù)集并非公開可用。
Lyu等人[35]提出了一個(gè)由2D圖像生成高分辨率圖像的Pixel-Face數(shù)據(jù)集。為進(jìn)行3D面部重建,提出了Pixel-3DM。然而,該研究未考慮外部遮擋情況。
2.2 基于DL的重建
3D生成對(duì)抗網(wǎng)絡(luò)(3DGAN)和3D卷積神經(jīng)網(wǎng)絡(luò)(3DCNN)是用于3D面部重建的深度學(xué)習(xí)技術(shù) [27]。這些方法的主要優(yōu)點(diǎn)是高保真度和更高的準(zhǔn)確性和平均絕對(duì)誤差(MAE)表現(xiàn)。然而,訓(xùn)練GAN需要很長(zhǎng)時(shí)間??梢酝ㄟ^面部身份保持(FIP)方法在規(guī)范視圖下進(jìn)行面部重建 [36]。
Tang等人 [37] 引入了一種用于在新的照明情況下生成圖像的多層生成式深度學(xué)習(xí)模型。在面部識(shí)別中,訓(xùn)練語料庫負(fù)責(zé)為多視角感知器提供標(biāo)簽。使用面部幾何從單個(gè)圖像擴(kuò)充合成數(shù)據(jù)[38]。
Richardson等人 [39] 提出了上述重建的無監(jiān)督版本。使用有監(jiān)督CNN實(shí)現(xiàn)面部動(dòng)畫任務(wù)[40]。使用深度卷積神經(jīng)網(wǎng)絡(luò)(DCNNs)來恢復(fù)3D紋理和形狀。在[41]中,面部紋理恢復(fù)提供了比3DMM [42] 更好的細(xì)節(jié)。
圖8展示了使用遮擋區(qū)域的恢復(fù)進(jìn)行3D面部識(shí)別的不同階段。
圖8:采用恢復(fù)技術(shù)進(jìn)行3D面部識(shí)別的不同階段 [9]
Kim等人 [26] 提出了一種基于深度卷積神經(jīng)網(wǎng)絡(luò)的3D面部識(shí)別算法。使用3D面部增強(qiáng)技術(shù),可以使用3D面部的單次掃描合成各種面部表情。基于遷移學(xué)習(xí)的模型訓(xùn)練速度更快。然而,當(dāng)3D點(diǎn)云圖像轉(zhuǎn)換為2.5D圖像時(shí),會(huì)丟失3D數(shù)據(jù)。
2.5D通常是指深度信息被限制為單個(gè)平面(例如2D圖像),這個(gè)平面上的每個(gè)像素點(diǎn)都有與之相關(guān)聯(lián)的深度值。在3D人臉識(shí)別中,將3D面部數(shù)據(jù)轉(zhuǎn)換為2.5D圖像的過程是將每個(gè)3D點(diǎn)的深度值映射到2D圖像上對(duì)應(yīng)的像素點(diǎn)上,從而得到每個(gè)像素點(diǎn)的深度信息。這種方法可以減少數(shù)據(jù)的維度,簡(jiǎn)化計(jì)算和減小儲(chǔ)存空間的需求,但是會(huì)丟失3D信息的一部分,因此可能影響面部識(shí)別的精度。
Gilani等人 [43] 提出了一種用于開發(fā)標(biāo)注的3D人臉大語料庫的技術(shù)。他們訓(xùn)練了一個(gè)面部識(shí)別3D卷積神經(jīng)網(wǎng)絡(luò)(FR3DNet),用于識(shí)別100K人的310萬張3D人臉。測(cè)試是基于1853人的31,860張圖像進(jìn)行的。
Thies等人[44]提出了一種神經(jīng)語音木偶技術(shù)(neural voice puppetry technique),用于從源輸入音頻生成逼真的輸出視頻。這基于使用潛在的3D模型空間的DeepSpeech循環(huán)神經(jīng)網(wǎng)絡(luò)。Audio2ExpressionNet負(fù)責(zé)將輸入音頻轉(zhuǎn)換為特定的面部表情。
Li等人 [45] 提出了SymmFCNet,一種對(duì)稱一致的卷積神經(jīng)網(wǎng)絡(luò),用于使用另一半面部進(jìn)行重建缺失像素。SymmFCNet包括照明重新加權(quán)變形和生成重建子網(wǎng)。依賴多個(gè)網(wǎng)絡(luò)是一個(gè)顯著的缺點(diǎn)。
Han等人 [46] 提出了一個(gè)素描系統(tǒng),通過修改面部特征創(chuàng)建3D漫畫照片。設(shè)計(jì)了一種非傳統(tǒng)的深度學(xué)習(xí)方法來獲取頂點(diǎn)顯著性圖。他們使用FaceWarehouse數(shù)據(jù)集[20]進(jìn)行訓(xùn)練和測(cè)試。優(yōu)點(diǎn)是將2D圖像轉(zhuǎn)換為3D面部漫畫模型。然而,在有眼鏡的情況下,漫畫質(zhì)量會(huì)受到影響。此外,重建會(huì)受到不同光照條件的影響。
Moschoglou等人[47]實(shí)現(xiàn)了一個(gè)自編碼器,如3DFaceGAN,用于建模3D面部表面分布。重建損失和對(duì)抗損失用于生成器和鑒別器。缺點(diǎn)是GAN難以訓(xùn)練,不能應(yīng)用于實(shí)時(shí)3D面部解決方案。
2.3 基于EG的重建
基于極線幾何的面部重建方法使用同一主體的多個(gè)非合成透視圖像生成單個(gè)3D圖像 [48]。這些技術(shù)的主要優(yōu)點(diǎn)是良好的幾何保真度。校準(zhǔn)相機(jī)和正交圖像是這些技術(shù)所面臨的兩個(gè)主要挑戰(zhàn)。圖9展示了從中心視角和子孔徑圖像中獲得的水平和垂直極線平面圖像(EPIs)。
圖9:a 3D面部曲線對(duì)應(yīng)的極線平面圖像,b 水平EPI,c 垂直EPI [48]
Anbarjafari等人 [49] 提出了一種新的技術(shù),用于生成由手機(jī)攝像頭捕獲的3D面部??偣彩褂昧?8個(gè)面部標(biāo)記將面部劃分為四個(gè)區(qū)域。在紋理創(chuàng)建、加權(quán)區(qū)域創(chuàng)建、模型變形和合成過程中使用了不同的階段。這種技術(shù)的主要優(yōu)點(diǎn)是從特征點(diǎn)獲得的良好泛化能力。但是,它依賴于具有良好頭部形狀的數(shù)據(jù)集,這會(huì)影響整體質(zhì)量。
2.4 基于OSL的重建
基于單次學(xué)習(xí)的重建方法使用個(gè)體的單個(gè)圖像來重新創(chuàng)建3D識(shí)別模型 [50]。該技術(shù)利用每個(gè)主體的單個(gè)圖像來訓(xùn)練模型。因此,這些技術(shù)訓(xùn)練速度更快,同時(shí)也產(chǎn)生了有希望的結(jié)果 [51]。然而,這種方法無法推廣到視頻?,F(xiàn)在,基于單次學(xué)習(xí)的3D重建是一個(gè)活躍的研究領(lǐng)域。
為了訓(xùn)練從2D到3D圖像的映射模型,需要真實(shí)的3D模型。一些研究者使用深度預(yù)測(cè)來重建3D結(jié)構(gòu) [52, 53]。而其他技術(shù)直接預(yù)測(cè)3D形狀[54, 55]。很少有研究通過利用一個(gè)2D圖像進(jìn)行3D面部重建[38,39]。
通過使用深度神經(jīng)網(wǎng)絡(luò)和模型參數(shù)向量,可以獲得3D面部的最佳參數(shù)值。在[56,57]上已經(jīng)取得了主要的改進(jìn)。然而,這種方法無法充分處理姿勢(shì)變化。這種技術(shù)的主要缺點(diǎn)是創(chuàng)建多視角3D面部和重建降級(jí)。圖10展示了基于單次拍攝的面部重建技術(shù)的一般框架。
圖10:基于OSL的3D人臉重建的總體框架
Xing等人 [58] 提出了一種使用單個(gè)圖像進(jìn)行3D面部重建的技術(shù),而不考慮真實(shí)的3D形狀。面部模型渲染被用于重建過程中。使用微調(diào)引導(dǎo)方法發(fā)送反饋以進(jìn)一步改善渲染質(zhì)量。這種技術(shù)提供了從2D圖像重建3D形狀的方法。然而,缺點(diǎn)是使用剛體變換進(jìn)行預(yù)處理。
2.5 基于SFS的重建
形狀恢復(fù)(SFS)方法基于從陰影和照明線索中恢復(fù)3D形狀[59, 60]。它使用產(chǎn)生良好形狀模型的圖像。然而,當(dāng)形狀估計(jì)對(duì)目標(biāo)的陰影產(chǎn)生干擾時(shí),遮擋無法處理。它在非正面面部視圖下的光照下運(yùn)作良好(見圖11)。
圖11:3D面部形狀恢復(fù) a 2D圖像,b 3D深度圖像,c 紋理投影,d 反照率直方圖[59]
Jiang等人[61]的方法受到使用RGB-D和單目視頻進(jìn)行面部動(dòng)畫的啟發(fā)。通過將參數(shù)模型擬合到輸入圖像,對(duì)目標(biāo)3D面部進(jìn)行粗略估計(jì)的計(jì)算完成。這種技術(shù)的主要缺點(diǎn)是從單個(gè)2D圖像重建3D圖像。相反,SFS技術(shù)依賴于關(guān)于面部幾何的預(yù)定義知識(shí),例如面部對(duì)稱性。
2.6 基于混合學(xué)習(xí)的重建
基于混合學(xué)習(xí)的重建(Hybrid Learning?based Reconstruction)
Richardson等人[38]提出了一種使用幾何形狀生成具有逼真面部圖像的數(shù)據(jù)庫的技術(shù)。使用ResNet模型[62]構(gòu)建了所提出的網(wǎng)絡(luò)。這種技術(shù)無法恢復(fù)具有不同面部屬性的圖像。它未能將訓(xùn)練過程推廣到新的面部生成。
Liu等人[63]提出了一種使用3DMM混合和形狀恢復(fù)方法進(jìn)行3D面部重建的技術(shù)。繪制了平均絕對(duì)誤差(MAE)以達(dá)到重建誤差的收斂。
Richardson等人[39]提出了一種單次學(xué)習(xí)模型,用于提取粗到細(xì)的面部形狀。使用CoarseNet和FineNet進(jìn)行粗面部特征的恢復(fù)。高細(xì)節(jié)面部重建包括單個(gè)圖像中的皺紋。然而,它無法推廣訓(xùn)練數(shù)據(jù)中可用的面部特征。對(duì)合成數(shù)據(jù)的依賴是另一個(gè)缺點(diǎn)。
Jackson等人[51]提出了一種基于CNN的模型,用于使用單個(gè)2D面部圖像重建3D面部幾何。此方法不需要任何類型的面部對(duì)齊。它適用于各種類型的表情和姿勢(shì)。
Tewari等人[64]提出了一種基于卷積自編碼器網(wǎng)絡(luò)的生成模型,用于面部重建。他們使用了AlexNet [65]和VGGFace [66]模型。然而,在有胡須或外部物體等遮擋情況下,該方法失敗了。
Dou等人[67]提出了一種基于深度神經(jīng)網(wǎng)絡(luò)(DNN)的技術(shù),用于使用單個(gè)2D圖像進(jìn)行端到端的3D面部重建。多任務(wù)損失函數(shù)和融合CNN被混合用于人臉識(shí)別。這種方法的主要優(yōu)點(diǎn)是具有端到端模型的簡(jiǎn)化框架。然而,該方法的缺點(diǎn)是依賴于合成數(shù)據(jù)。
Han等人[68]提出了一種基于CNN深度學(xué)習(xí)的草圖系統(tǒng),用于3D面部和卡通建模。通常,通過MAYA和ZBrush生成豐富的面部表情。然而,它包括基于手勢(shì)的用戶交互。形狀級(jí)輸入與完全連接層的輸出相結(jié)合,以生成雙線性輸出。
Hsu等人[69]提出了兩種不同的跨姿態(tài)人臉識(shí)別方法。一種技術(shù)基于3D重建,另一種方法使用深度CNN構(gòu)建。面部組件是從2D面部庫構(gòu)建的。使用2D面部組件重建了3D表面。基于CNN的模型可以輕松處理野外特征?;?D組件的方法不具有很好的泛化性。
Feng等人[48]開發(fā)了FaceLFnet,使用Epipolar Plane Images(EPI)來恢復(fù)3D面部。他們使用CNN恢復(fù)垂直和水平3D面部曲線。使用3D面部合成了逼真的光場(chǎng)圖像。在訓(xùn)練過程中使用了80個(gè)不同人的14K面部掃描,共計(jì)1100萬個(gè)面部曲線/EPI。該模型是醫(yī)學(xué)應(yīng)用的優(yōu)選選擇。然而,這種技術(shù)需要大量的極線平面圖像曲線。
Zhang等人[70]提出了一種使用可塑面孔和稀疏光度立體結(jié)合的3D面部重建技術(shù)。優(yōu)化技術(shù)用于每個(gè)像素的照明方向以及高精度照明。在輸入圖像和幾何代理上執(zhí)行語義分割,以重建皺紋、眉毛、痣和毛孔等細(xì)節(jié)。平均幾何誤差用于驗(yàn)證重建質(zhì)量。這種技術(shù)依賴于照射在面部上的光。
Tran等人[71]提出了一種基于凸起映射的3D面部重建技術(shù)。使用卷積編碼器-解碼器方法估計(jì)凸起映射。最大池化和修正線性單元(ReLU)與卷積層一起使用。該技術(shù)的主要缺點(diǎn)是未優(yōu)化的軟對(duì)稱實(shí)現(xiàn)較慢。
Feng等人[72]提出了一個(gè)由135個(gè)人的2K張面部圖像組成的基準(zhǔn)數(shù)據(jù)集。在所提出的數(shù)據(jù)集上評(píng)估了五種不同的3D面部重建方法。
Feng等人[73]提出了一種基于紋理坐標(biāo)UV位置圖的3D面部重建技術(shù),稱為位置圖回歸網(wǎng)絡(luò)(PRN)。CNN從單次2D圖像回歸3D形狀。加權(quán)損失函數(shù)在卷積過程中使用不同的權(quán)重形式,即權(quán)重掩碼。UV位置圖也可以泛化。然而,在實(shí)際場(chǎng)景中應(yīng)用困難。
Liu等人[74]提出了一種基于編碼器-解碼器的網(wǎng)絡(luò),用于從2D圖像回歸3D面部形狀。聯(lián)合損失基于3D面部重建和識(shí)別誤差計(jì)算。然而,聯(lián)合損失函數(shù)會(huì)影響面部形狀的質(zhì)量。
Chinaev等人[75]開發(fā)了一種基于CNN的模型,用于使用移動(dòng)設(shè)備進(jìn)行3D面部重建。在測(cè)試階段使用了MobileFace CNN。這種方法在移動(dòng)設(shè)備上的訓(xùn)練速度很快,可以實(shí)時(shí)應(yīng)用。然而,在預(yù)處理階段使用可塑模型對(duì)3D面部進(jìn)行注釋是昂貴的。
Gecer等人[27]提出了一種基于DCNN和GAN的3D面部重建技術(shù)。在UV空間中,GAN用于訓(xùn)練生成器生成面部紋理。在可微分渲染器和GAN上制定了非傳統(tǒng)的3DMM擬合策略。
Deng等人[76]提出了一種基于CNN的單次拍攝面部重建方法,用于弱監(jiān)督學(xué)習(xí)。感知級(jí)和圖像級(jí)損失結(jié)合。該技術(shù)的優(yōu)點(diǎn)是大姿態(tài)和遮擋不變性。然而,在預(yù)測(cè)階段,模型的置信度在遮擋方面較低。
Yuan等人[77]提出了一種使用3DMM和GAN的3D面部恢復(fù)技術(shù),用于遮擋的面部。使用局部鑒別器和全局鑒別器驗(yàn)證3D面部的質(zhì)量。面部特征點(diǎn)的語義映射導(dǎo)致在遮擋下生成合成面部。相比之下,多個(gè)鑒別器會(huì)增加時(shí)間復(fù)雜度。
Luo等人[78]實(shí)現(xiàn)了一種用于3D面部恢復(fù)的Siamese CNN方法。他們利用加權(quán)參數(shù)距離成本(WPDC)和對(duì)比成本函數(shù)驗(yàn)證重建方法的質(zhì)量。然而,在野外沒有測(cè)試面部識(shí)別,訓(xùn)練圖像數(shù)量較少。
Gecer等人[79]提出了一種基于GAN的方法,用于合成高質(zhì)量的3D面部。使用條件GAN進(jìn)行表情增強(qiáng)。從300W-LP數(shù)據(jù)集中隨機(jī)綜合了10K個(gè)新的個(gè)體身份。該技術(shù)生成具有精細(xì)細(xì)節(jié)的高質(zhì)量3D面部。然而,GAN難以訓(xùn)練,不能應(yīng)用于實(shí)時(shí)解決方案。
Chen等人[80]提出了一種使用自我監(jiān)督的3DMM可訓(xùn)練VGG編碼器的3D面部重建技術(shù)。使用兩階段框架回歸3DMM參數(shù)以重建面部細(xì)節(jié)。在正常遮擋下生成具有良好質(zhì)量的面部。使用UV空間捕獲面部細(xì)節(jié)。然而,該模型在極端遮擋、表情和大姿態(tài)上失敗。CelebA [81]數(shù)據(jù)集用于訓(xùn)練,CelebA與LFW [82]數(shù)據(jù)集一起用于測(cè)試過程。
Ren等人[83]為3D面部點(diǎn)視頻去模糊開發(fā)了一個(gè)編碼器-解碼器框架。通過渲染分支和3D面部重建預(yù)測(cè)身份知識(shí)和面部結(jié)構(gòu)。面部去模糊是在處理姿態(tài)變化的視頻時(shí)的挑戰(zhàn)。該技術(shù)的主要缺點(diǎn)是高計(jì)算成本。
Tu等人[10]開發(fā)了一種用于2D面部圖像的2D輔助自我監(jiān)督學(xué)習(xí)(2DASL)技術(shù)。使用關(guān)鍵點(diǎn)的噪聲信息來提高3D面部模型的質(zhì)量。開發(fā)了自我批評(píng)學(xué)習(xí)來改善3D面部模型。兩個(gè)數(shù)據(jù)集,即AFLW-LFPA [84]和AFLW2000-3D [85],用于3D面部恢復(fù)和面部對(duì)齊。這種方法適用于野外2D面部以及嘈雜的關(guān)鍵點(diǎn)。然而,它依賴于2D到3D關(guān)鍵點(diǎn)注釋。
Liu等人[86]提出了一種用于生成姿態(tài)和表情標(biāo)準(zhǔn)化(PEN)3D面部的自動(dòng)方法。該技術(shù)的優(yōu)點(diǎn)是從單個(gè)2D圖像進(jìn)行重建和3D面部識(shí)別在姿態(tài)和表情上不變。然而,它不具備遮擋不變性。
Lin等人[24]實(shí)現(xiàn)了一種基于野外單次圖像的3D面部重建技術(shù)。使用圖卷積網(wǎng)絡(luò)生成高密度面部紋理。FaceWarehouse [20]以及CelebA [81]數(shù)據(jù)庫用于訓(xùn)練。
Ye等人[87]提出了一個(gè)大規(guī)模的3D漫畫數(shù)據(jù)集。他們生成了一個(gè)基于PCA的線性3D可塑建模,用于漫畫形狀。從pinterest.com和WebCaricature數(shù)據(jù)集[88]中收集了6.1K個(gè)肖像漫畫圖像。已合成高質(zhì)量的3D漫畫。然而,對(duì)于遮擋的輸入面部圖像,漫畫的質(zhì)量不好。
Lattas等人[89]提出了一種使用任意圖像生成高質(zhì)量3D面部重建的技術(shù)。基于幾何和反射率收集了200個(gè)不同主題的大規(guī)模數(shù)據(jù)庫。訓(xùn)練圖像轉(zhuǎn)換網(wǎng)絡(luò)以估計(jì)高光和漫反射反照率。該技術(shù)使用GAN生成高分辨率的頭像。然而,它無法生成深色皮膚主題的頭像。
Zhang等人[90]提出了一種用于漫畫的自動(dòng)關(guān)鍵點(diǎn)檢測(cè)和3D面部恢復(fù)技術(shù)。使用漫畫的2D圖像來回歸3D漫畫的方向和形狀。ResNet模型用于將輸入圖像編碼為潛空間。解碼器與全連接層一起用于在漫畫上生成3D關(guān)鍵點(diǎn)。
Deng等人[91]提出了一種DISentangled precisely-COntrollable(DiscoFaceGAN)潛在嵌入,用于表示具有各種姿勢(shì)、表情和照明的虛假人物。通過將渲染面孔與真實(shí)面孔進(jìn)行比較,采用對(duì)比學(xué)習(xí)來促進(jìn)解纏繞。面部生成在表情、姿勢(shì)和照明上是精確的。在低光和極端姿勢(shì)下生成模型的質(zhì)量較低。
Li等人[92]提出了一種3D面部重建技術(shù),用于估計(jì)3D面部的姿勢(shì),使用粗到細(xì)估計(jì)。他們使用自適應(yīng)加權(quán)方法生成3D模型。該技術(shù)的優(yōu)點(diǎn)是對(duì)局部遮擋和極端姿勢(shì)具有魯棒性。然而,當(dāng)遮擋時(shí)2D和3D關(guān)鍵點(diǎn)被錯(cuò)誤估計(jì)時(shí),模型會(huì)失敗。
Chaudhuri等人[93]提出了一種深度學(xué)習(xí)方法,用于訓(xùn)練個(gè)性化的動(dòng)態(tài)反照率圖和表情混合形狀。以照片逼真的方式生成3D面部恢復(fù)。面部解析損失和混合形狀梯度損失捕捉了重建混合形狀的語義含義。這種技術(shù)在野外視頻中進(jìn)行訓(xùn)練,并生成了高質(zhì)量的3D面部和面部運(yùn)動(dòng)從一個(gè)人到另一個(gè)人的轉(zhuǎn)移。它在外部遮擋下表現(xiàn)不佳。
Shang等人[94]提出了一種自我監(jiān)督學(xué)習(xí)技術(shù),用于遮擋感知視圖合成。使用三個(gè)不同的損失函數(shù),即深度一致性損失、像素一致性損失和基于關(guān)鍵點(diǎn)的極線損失,進(jìn)行多維一致性。重建是通過遮擋感知方法完成的。它在外部遮擋(如手、眼鏡等)下表現(xiàn)不佳。
Cai等人[95]提出了Attention Guided GAN(AGGAN),能夠使用2.5D圖像進(jìn)行3D面部重建。AGGAN使用自編碼器技術(shù)從深度圖像生成3D體素圖像。使用基于注意力的GAN進(jìn)行2.5D到3D面部映射。該技術(shù)處理廣泛的頭部姿勢(shì)和表情。然而,在大張嘴的情況下,無法完全重建面部表情。
Xu等人[96]提出了一種訓(xùn)練頭部幾何模型而不使用3D基準(zhǔn)數(shù)據(jù)的方法。使用CNN訓(xùn)練具有頭部幾何的深度合成圖像,而無需優(yōu)化。使用GAN和3D變形進(jìn)行頭部姿勢(shì)操作。
表1呈現(xiàn)了3D面部重建技術(shù)的比較分析。
表1:3D面部重建技術(shù)的比較分析
表2總結(jié)了3D面部重建技術(shù)的優(yōu)缺點(diǎn)。
表2:3D面部重建技術(shù)的優(yōu)缺點(diǎn)比較
3 性能評(píng)估標(biāo)準(zhǔn)
性能評(píng)估措施對(duì)于了解訓(xùn)練模型的質(zhì)量很重要。有多種評(píng)估指標(biāo),包括平均絕對(duì)誤差(MAE)、均方誤差(MSE)、歸一化平均誤差(NME)、均方根誤差(RMSE)、交叉熵?fù)p失(CE)、曲線下面積(AUC)、交集聯(lián)合比(IoU)、峰值信噪比(PSNR)、接收器操作特征曲線(ROC)和結(jié)構(gòu)相似性指數(shù)(SSIM)。
表3總結(jié)了3D面部重建技術(shù)的性能評(píng)估措施。
表3:從性能指標(biāo)評(píng)估3D面部重建技術(shù)
在面部重建過程中,最重要的性能評(píng)估措施是MAE、MSE、NME、RMSE和對(duì)抗性損失。這些是五個(gè)廣泛使用的性能評(píng)估措施。對(duì)抗性損失自2019年以來隨著GAN在3D圖像中的出現(xiàn)而被使用。
4 用于人臉識(shí)別的數(shù)據(jù)集
表4展示了用于3D面部重建技術(shù)的數(shù)據(jù)集的詳細(xì)描述。
表4:所用數(shù)據(jù)集的詳細(xì)說明
對(duì)不同數(shù)據(jù)集的分析突顯了一個(gè)事實(shí),即大多數(shù)3D面部數(shù)據(jù)集都是公開可用的數(shù)據(jù)集。與2D面部公開數(shù)據(jù)集相比,它們沒有足夠數(shù)量的圖像來訓(xùn)練模型。這使得3D面部的研究更加有趣,因?yàn)榭蓴U(kuò)展性因素尚未得到測(cè)試,已經(jīng)成為一個(gè)活躍的研究領(lǐng)域。值得一提的是,僅有三個(gè)數(shù)據(jù)集,即Bosphorus、Kinect-FaceDB和UMBDB數(shù)據(jù)集,具有被遮擋的圖像,用于遮擋去除。
5 用于3D人臉重建的工具和技術(shù)
表5介紹了在圖形處理單元(GPU)的硬件、隨機(jī)存取存儲(chǔ)器(RAM)的大小、中央處理單元(CPU)以及簡(jiǎn)要應(yīng)用方面使用的技術(shù)。比較突顯了深度學(xué)習(xí)在3D面部重建中的重要性。GPU在基于深度學(xué)習(xí)的模型中扮演著至關(guān)重要的角色。隨著Google Collaboratory的出現(xiàn),GPU現(xiàn)在是免費(fèi)可用的。
表5:3D人臉重建技術(shù)、硬件和應(yīng)用的比較分析
6 應(yīng)用
基于人工智能的AI+X技術(shù)[128],其中X是面部識(shí)別領(lǐng)域的專業(yè)知識(shí),大量應(yīng)用受到3D面部重建的影響。面部操縱、語音驅(qū)動(dòng)的動(dòng)畫和再現(xiàn)、視頻配音、虛擬化妝、投影映射、面部替換、面部老化和醫(yī)學(xué)上的3D打印是一些眾所周知的應(yīng)用。這些應(yīng)用在接下來的子章節(jié)中將會(huì)討論。
6.1 面部操縱
游戲和電影行業(yè)使用基于視頻的面部動(dòng)畫中的面部克隆或操縱。表情和情感通過視頻流從用戶傳輸?shù)侥繕?biāo)角色。當(dāng)藝術(shù)家為電影中的動(dòng)畫角色配音時(shí),3D面部重建可以幫助將表情從藝術(shù)家傳輸?shù)浇巧D12展示了數(shù)字化頭像實(shí)時(shí)演示中的操縱示例[129,130]。
圖12:實(shí)時(shí)人臉木偶戲[129]
6.2 語音驅(qū)動(dòng)的動(dòng)畫和再現(xiàn)
Zollhofer等人[1]討論了各種基于視頻的面部再現(xiàn)工作。大多數(shù)方法依賴于使用參數(shù)化面部模型對(duì)源臉和目標(biāo)臉進(jìn)行重建。圖13展示了神經(jīng)語音操縱的管道架構(gòu)[44]。音頻輸入通過基于循環(huán)神經(jīng)網(wǎng)絡(luò)的深度語音進(jìn)行特征提取。此外,基于自動(dòng)編碼器的表情特征與3D模型一起傳輸?shù)缴窠?jīng)渲染器,以接收語音驅(qū)動(dòng)的動(dòng)畫。
圖13:神經(jīng)語音木偶
6.3 視頻配音
配音是電影制作中的重要部分,其中在原始場(chǎng)景中添加或替換音頻軌道。原始演員的聲音需要用配音演員的聲音替換。這個(gè)過程需要對(duì)配音演員進(jìn)行充分的訓(xùn)練,以使其的音頻與原始演員的口型同步 [131]。為了最小化視覺配音中的差異,需要對(duì)口型進(jìn)行動(dòng)態(tài)重建,以補(bǔ)充配音演員所說的對(duì)話。這涉及將配音演員的口部運(yùn)動(dòng)與演員的嘴部運(yùn)動(dòng)進(jìn)行映射 [132]。因此,使用圖像交換或傳遞參數(shù)的技術(shù)。
圖14展示了VDub [131]和啟用現(xiàn)場(chǎng)配音的Face2Face的視覺配音。圖14顯示了DeepFake在6.S191中的示例 [133],展示了課程講師使用深度學(xué)習(xí)將自己的聲音配成著名人士的示例。
圖14:6.S191中的DeepFake示例[133]
6.4 虛擬化妝
虛擬化妝在在線平臺(tái)上的使用非常普遍,用于會(huì)議和視頻聊天,其中呈現(xiàn)出漂亮的外觀是不可或缺的。它包括數(shù)字圖像變化,如涂抹合適的口紅、面罩等。這對(duì)美容產(chǎn)品公司非常有用,因?yàn)樗麄兛梢赃M(jìn)行數(shù)字廣告,消費(fèi)者可以在他們的圖像上實(shí)時(shí)體驗(yàn)產(chǎn)品的效果。它是通過使用不同的重建算法實(shí)現(xiàn)的。
合成的虛擬紋身已經(jīng)顯示出可以調(diào)整到面部表情[134](見圖15a)。
Viswanathan等人[135]提出了一個(gè)系統(tǒng),在該系統(tǒng)中,將兩個(gè)面部圖像作為輸入,一個(gè)為睜眼狀態(tài),另一個(gè)為閉眼狀態(tài)。提出了一種增強(qiáng)現(xiàn)實(shí)的面部,用于向面部添加一個(gè)或多個(gè)化妝形狀、層、顏色和質(zhì)地。
Nam等人[136]提出了一種基于增強(qiáng)現(xiàn)實(shí)的唇部化妝方法,該方法使用像素單位化妝與多邊形單位化妝相比,如圖15b所示。
圖15:a 合成虛擬紋身[134]和,b 基于增強(qiáng)現(xiàn)實(shí)的像素單位口紅化妝[136]
6.5 投影映射
投影映射使用投影儀來修改真實(shí)世界圖像的特征或表情。這種技術(shù)用于給靜態(tài)圖像帶來生命,并給它們提供視覺展示。在2D和3D圖像中使用不同的方法進(jìn)行投影映射,以改變?nèi)说耐饷?。圖16展示了名為Face-Forge [137]的實(shí)時(shí)投影映射系統(tǒng)。
圖16:基于FaceForge的實(shí)時(shí)投影映射[137]
Lin等人[24]提出了一種3D面部投影技術(shù),通過將輸入圖像通過CNN并將信息與3DMM結(jié)合,從而得到面部的精細(xì)紋理(見圖17)。
圖17:結(jié)合3DMM模型的2D面投影映射[24]
6.6 面部替換
面部替換通常在娛樂行業(yè)中使用,其中源臉部被目標(biāo)臉替換。這種技術(shù)基于身份、面部特征和兩個(gè)臉部(源和目標(biāo))的表情等參數(shù)。源臉部需要被渲染,以使其符合目標(biāo)臉的條件。Adobe After Effects是電影和動(dòng)畫行業(yè)中廣泛使用的工具,可以幫助進(jìn)行面部替換[138](見圖18)。
圖18:表情不變的人臉替換系統(tǒng)[138]
6.7 面部老化
面部衰老是將3D面部圖像轉(zhuǎn)換為4D的有效技術(shù)。如果可以使用衰老GAN合成單個(gè)3D圖像,那將有助于創(chuàng)建4D數(shù)據(jù)集。面部衰老也稱為年齡進(jìn)展或年齡合成,因?yàn)樗ㄟ^改變面部特征來使面部“復(fù)活”。使用各種技術(shù)增強(qiáng)面部特征,以便保留原始圖像。圖19顯示了使用年齡條件GAN(ACGAN)[139]進(jìn)行面部轉(zhuǎn)換的過程。
圖19:使用ACGAN的臉部變換[139]
Shi等人[140]使用GAN進(jìn)行面部衰老,因?yàn)椴煌拿娌坎课辉跁r(shí)間上具有不同的衰老速度。因此,他們使用基于注意力的條件GAN,使用規(guī)范化來處理分段面部衰老。
Fang等人[141]提出了一種漸進(jìn)的面部衰老方法,使用GAN生成器級(jí)別的三重?fù)p失函數(shù)。復(fù)雜的轉(zhuǎn)換損失幫助他們有效地處理面部衰老。
Huang等人[142]使用漸進(jìn)GAN處理三個(gè)方面的面部衰老,如身份保持、高保真度和衰老準(zhǔn)確性。Liu等人[143]提出了一種可控制的GAN,用于操作輸入面部圖像的潛在空間以控制面部衰老。
Yadav等人[144]提出了使用同一人的兩個(gè)不同圖像在各種年齡差距下進(jìn)行面部識(shí)別的方法。
Sharma等人[145]使用CycleGAN的管道進(jìn)行年齡進(jìn)展,使用增強(qiáng)超分辨率GAN進(jìn)行高保真度的融合GAN。
Liu等人[146]提出了一種面部衰老方法,用于對(duì)年輕面孔進(jìn)行建模,對(duì)面部外觀和幾何變換進(jìn)行建模。
如表6所示,面部重建可以在三種不同類型的設(shè)置中使用。面部操縱、語音驅(qū)動(dòng)的動(dòng)畫和面部再現(xiàn)都是基于動(dòng)畫的面部重建的示例。面部替換和視頻配音是基于視頻的應(yīng)用的兩個(gè)示例。面部衰老、虛擬化妝和投影映射是一些最常見的3D面部應(yīng)用。
表6:3D人臉重建技術(shù)的應(yīng)用
7 挑戰(zhàn)與未來研究方向
本節(jié)討論了3D面部重建過程中所面臨的主要挑戰(zhàn),隨后介紹了未來研究的方向。
7.1 目前的挑戰(zhàn)
目前3D面部重建面臨的挑戰(zhàn)包括遮擋去除、化妝品去除、表情轉(zhuǎn)移和年齡預(yù)測(cè)。這些將在接下來的小節(jié)中進(jìn)行討論。
7.1.1 遮擋去除
遮擋去除是3D面部重建的一個(gè)具有挑戰(zhàn)性的任務(wù)。研究人員正在使用體素和3D地標(biāo)來處理3D面部遮擋 [2, 8, 9]。
Sharma和Kumar [2]開發(fā)了一種基于體素的面部重建技術(shù)。在重建過程后,他們使用變分自編碼器、雙向LSTM和三元損失訓(xùn)練的管道來實(shí)現(xiàn)3D面部識(shí)別。
Sharma和Kumar [20]提出了一種基于體素的面部重建和識(shí)別方法。他們使用基于博弈理論的生成器和鑒別器來生成三元組。在缺失信息被重建后,遮擋被移除。Sharma和Kumar [22]使用3D面部地標(biāo)構(gòu)建了一種一次學(xué)習(xí)的3D面部重建技術(shù)(見圖20)。
圖20:基于面部標(biāo)志的三維人臉重建[9]
7.1.2 涂抹化妝品及其去除
在COVID-19大流行期間的虛擬會(huì)議中進(jìn)行化妝和化妝品去除是具有挑戰(zhàn)性的[154-156]。
MakeupBag [154]提出了一種自動(dòng)化妝風(fēng)格轉(zhuǎn)移技術(shù),通過解決化妝品分離和面部化妝問題。MakeupBag的主要優(yōu)點(diǎn)在于它在進(jìn)行化妝轉(zhuǎn)移時(shí)考慮了膚色和顏色(如圖21所示)。
圖21:MakeupBag基于從參考面部到目標(biāo)面部應(yīng)用化妝的輸出[154]。
Li等人[155]提出了一種化妝不變的人臉驗(yàn)證系統(tǒng)。他們使用語義感知的化妝品清潔器(SAMC)在各種表情和姿勢(shì)下去除面部化妝品。該技術(shù)在定位臉部化妝區(qū)域的同時(shí)無監(jiān)督地工作,并使用介于0到1之間的注意力圖,表示化妝程度。
Horita和Aizawa [156]提出了一種基于樣式和潛在向量引導(dǎo)的生成對(duì)抗網(wǎng)絡(luò)(SLGAN)。他們使用可控制的GAN來使用戶可以調(diào)整化妝品的陰影效果(見圖22)。
圖22:基于GAN的化妝品轉(zhuǎn)移和去除[156]
7.1.3 表情轉(zhuǎn)移
表情轉(zhuǎn)移是一個(gè)活躍的問題,特別是隨著GAN的出現(xiàn)。
Wu等人[157]提出了ReenactGAN,一種能夠?qū)⑷说谋砬閺脑匆曨l轉(zhuǎn)移到目標(biāo)視頻的方法。他們采用基于編碼器解碼器的模型來進(jìn)行從源到目標(biāo)的臉部轉(zhuǎn)換。變換器使用了三個(gè)損失函數(shù)進(jìn)行評(píng)估,即循環(huán)損失、對(duì)抗損失和形狀約束損失。圖23展示了唐納德·特朗普重現(xiàn)表情的圖像。
圖23:使用ReenactGAN[157]的表達(dá)轉(zhuǎn)移
深度偽造是一個(gè)令人擔(dān)憂的問題,其中面部表情和上下文是不同的。
Nirkin等人[158]提出了一種深度偽造檢測(cè)方法,用于檢測(cè)身份操縱和人臉替換。在深度偽造圖像中,面部區(qū)域通過針對(duì)要改變的面部進(jìn)行上下文變化來進(jìn)行操作。
Tolosana等人[159]對(duì)四種深度偽造方法進(jìn)行了調(diào)查,包括全面合成、身份交換、面部屬性操作和表情交換。
7.1.4 年齡預(yù)測(cè)
由于深度偽造和生成對(duì)抗網(wǎng)絡(luò)[140,142],面部可以變形為其他年齡,如圖24所示。因此,對(duì)一個(gè)人的年齡預(yù)測(cè)的挑戰(zhàn)超出了想象,特別是在身份證或社交網(wǎng)絡(luò)平臺(tái)上的虛假面孔上。
圖24:GAN進(jìn)行性面部衰老的結(jié)果[142]
Fang等人[141]提出了一種基于GAN的面部年齡模擬技術(shù)。所提出的Triple-GAN模型使用三元翻譯損失來建模年齡模式之間的相互關(guān)系。他們使用基于編碼器解碼器的生成器和鑒別器進(jìn)行年齡分類。
Kumar等人[160]在基于GAN模型[161]的潛在空間上采用強(qiáng)化學(xué)習(xí)。他們使用馬爾可夫決策過程(MDP)進(jìn)行語義操縱。
Pham等人[162]提出了一種半監(jiān)督的GAN技術(shù)來生成逼真的面部圖像。他們?cè)谟?xùn)練網(wǎng)絡(luò)時(shí)使用真實(shí)數(shù)據(jù)和目標(biāo)年齡合成面部圖像。
Zhu等人[163]使用基于注意力的條件GAN技術(shù),以目標(biāo)高保真度合成面部圖像。
7.2 未來的挑戰(zhàn)
無監(jiān)督學(xué)習(xí)在3D面部重建中仍然是一個(gè)開放性問題。最近,[164]提出了關(guān)于3D對(duì)稱可變形物體的解決方法。在這篇論文中,詳細(xì)討論了一些未來的3D面部重建可能性,例如唇部重建、牙齒和舌頭捕捉、眼睛和眼瞼捕捉、發(fā)型重建和完整頭部重建。這些挑戰(zhàn)為從事3D面部重建領(lǐng)域的研究人員提出了任務(wù)。
7.2.1 唇部重建
唇部是口部區(qū)域最關(guān)鍵的組成部分之一。各種名人進(jìn)行唇部手術(shù),包括唇部提升手術(shù)、唇部縮小手術(shù)和唇部增大手術(shù)[165,166]。
Heidekrueger等人[165]調(diào)查了女性偏愛的唇比例。結(jié)論是性別、年齡、職業(yè)和國(guó)家可能會(huì)影響下唇比例的偏好。
Baudoin等人[166]對(duì)上唇美學(xué)進(jìn)行了綜述。研究了從填充劑到皮膚磨削和手術(shù)切除等不同的治療選擇。
Zollhofer等人[1]在圖25中展示了唇部重建作為3D面部重建的一種應(yīng)用。在[167]中,唇部的視頻重建了唇部的滾動(dòng)、拉伸和彎曲。
圖25:高質(zhì)量的唇形重建[1]
7.2.2 牙齒和舌頭捕捉
在文獻(xiàn)中,很少有研究工作關(guān)注捕捉口腔內(nèi)部。在基于GAN的2D面部重建中重建牙齒和舌頭是一項(xiàng)困難的任務(wù)。胡須或髭須可能使得捕捉牙齒和舌頭變得困難。在[163]中,討論了一個(gè)統(tǒng)計(jì)模型。重建牙齒區(qū)域有不同的應(yīng)用,比如,制作數(shù)字化頭像的內(nèi)容和基于面部幾何的牙齒修復(fù)(參見圖26)。
圖26:牙齒重建及其應(yīng)用[168]
7.2.3 眼睛和眼瞼捕捉
Wang等人[170]展示了從RGB視頻中進(jìn)行3D眼球注視估計(jì)和面部重建。
Wen等人[169]提出了一種實(shí)時(shí)跟蹤和重建3D眼瞼的技術(shù)(參見圖27)。這種方法與面部和眼球追蹤系統(tǒng)相結(jié)合,以實(shí)現(xiàn)具有詳細(xì)眼部區(qū)域的完整面部。在[171]中,使用了雙向LSTM進(jìn)行眼瞼追蹤。
圖27:基于語義邊緣的眼瞼追蹤[169]
7.2.4 發(fā)型重建
在3D面部上,發(fā)型重建是一項(xiàng)具有挑戰(zhàn)性的任務(wù)?;隗w積變分自編碼器的3D頭發(fā)合成[172]在圖28中展示。
圖28:使用體積變分自編碼器進(jìn)行的3D頭發(fā)合成[172]
Ye等人[173]提出了一個(gè)基于編碼器-解碼器技術(shù)的發(fā)絲重建模型。它使用基于發(fā)型的定向地圖生成了一個(gè)體積向量場(chǎng)。在生成編碼器-解碼器格式的架構(gòu)時(shí),他們使用了CNN層的混合,跳躍連接,全連接層,和反卷積層。在訓(xùn)練過程中,結(jié)構(gòu)和內(nèi)容損失被用作評(píng)估指標(biāo)。
7.2.5 完整頭部重建
3D人頭重建是一個(gè)活躍的研究領(lǐng)域。
He等人[174]提出了一個(gè)全頭驅(qū)動(dòng)的3D面部重建。生成了輸入圖像和重建結(jié)果,帶有側(cè)視紋理(參見圖29)。他們采用了反照率參數(shù)化模型來補(bǔ)充頭部紋理圖。卷積網(wǎng)絡(luò)被用于面部和頭發(fā)區(qū)域的分割。在虛擬現(xiàn)實(shí)以及頭像生成中,人頭重建有各種應(yīng)用。
圖29:完整頭部重建[174]
表7展示了挑戰(zhàn)和未來的方向,以及他們的目標(biāo)問題。
表7:3D面部重建的挑戰(zhàn)和未來研究方向
8 結(jié)論
本文對(duì)3D面部重建技術(shù)進(jìn)行了詳細(xì)的調(diào)查和深入的研究。
初步討論了六種重建技術(shù)。觀察結(jié)果是,可擴(kuò)展性是3D面部問題的最大挑戰(zhàn),因?yàn)?D面部沒有足夠大的公開可用數(shù)據(jù)集。大多數(shù)研究人員已經(jīng)在RGB-D圖像上進(jìn)行了工作。
隨著深度學(xué)習(xí)的發(fā)展,對(duì)網(wǎng)格圖像或體素圖像的工作存在硬件約束。
討論了與真實(shí)世界中的3D面部重建相關(guān)的當(dāng)前和未來挑戰(zhàn)。這個(gè)領(lǐng)域是一個(gè)開放的研究領(lǐng)域,有許多挑戰(zhàn),特別是與生成對(duì)抗網(wǎng)絡(luò)(GANs)和深度偽造的能力相關(guān)的挑戰(zhàn)。在
- 嘴唇重建
- 口腔內(nèi)部重建
- 眼瞼重建
- 各種頭發(fā)的造型
- 完整頭部重建
方面,這個(gè)研究還未被充分探索。
聲明 利益沖突:代表所有作者,通訊作者聲明沒有利益沖突。文章來源:http://www.zghlxwxcb.cn/news/detail-623487.html
參考文獻(xiàn)
- Zollh?fer M, Thies J, Garrido P 等 (2018) 單眼3D面部重建、跟蹤和應(yīng)用的最新進(jìn)展. 計(jì)算圖形論壇 37(2):523–550. https://doi.org/10.1111/cgf.13382
- Sharma S, Kumar V (2020) 使用序列深度學(xué)習(xí)的體素-based 3D面部重建及其在面部識(shí)別中的應(yīng)用. 多媒體工具應(yīng)用 79:17303–17330. https://doi.org/10.1007/s11042-020-08688-x
- 云視覺API | Google Cloud. https://cloud.google.com/vision/docs/face-tutorial. 訪問日期:2021年1月12日
- AWS Marketplace: Deep Vision API. https://aws.amazon.com/marketplace/pp/Deep-Vision-AI-Inc-Deep-Vision-API/B07JHXVZ4M. 訪問日期:2021年1月12日
- 計(jì)算機(jī)視覺 | Microsoft Azure. https://azure.microsoft.com/en-in/services/cognitive-services/computer-vision/. 訪問日期:2021年1月12日
- Koujan MR, Dochev N, Roussos A (2020) 使用LSFM模型實(shí)現(xiàn)實(shí)時(shí)單眼4D面部重建. 預(yù)印版arXiv:2006.10499.
- Behzad M, Vo N, Li X, Zhao G (2021) 朝向稀疏感知4D情感識(shí)別的超越面部閱讀. 神經(jīng)計(jì)算 458:297–307
- Sharma S, Kumar V (2020) 利用博弈論和模擬退火進(jìn)行體素-based 3D遮擋不變的面部識(shí)別. 多媒體工具和應(yīng)用 79(35):26517–26547
- Sharma S, Kumar V (2021) 使用變分自動(dòng)編碼器和三元損失進(jìn)行基于3D標(biāo)記點(diǎn)的面部恢復(fù)以供識(shí)別. IET生物測(cè)量 10(1):87–98. https://doi.org/10.1049/bme2.12005
- Tu X, Zhao J, Xie M 等 (2020) 在Wild中由2D面部圖像輔助的單張圖像3D面部重建. IEEE Trans Multimed 23:1160–1172. https://doi.org/10.1109/TMM.2020.2993962
- Bulat A, Tzimiropoulos G 我們離解決2D和3D面部對(duì)齊問題有多遠(yuǎn)?(以及一個(gè)包含230,000個(gè)3D面部標(biāo)記點(diǎn)的數(shù)據(jù)集). 在: IEEE國(guó)際計(jì)算機(jī)視覺會(huì)議(ICCV)論文集, 頁碼: 1021–1030
- Zhu X, Lei Z, Liu X 等 (2016) 跨大姿態(tài)的面部對(duì)齊:一個(gè)3D解決方案. 計(jì)算機(jī)視覺和模式識(shí)別 (CVPR), 頁碼: 146–155
- Gu S, Bao J, Yang H 等 (2019) 利用條件GAN進(jìn)行面部遮罩引導(dǎo)的肖像編輯. 在: 2019年IEEE計(jì)算機(jī)社區(qū)計(jì)算機(jī)視覺模式識(shí)別會(huì)議論文集 2019-June:3431–3440. doi: https://doi.org/10.1109/CVPR.2019.00355
- Guo Y, Wang H, Hu Q 等 (2020) 針對(duì)3D點(diǎn)云的深度學(xué)習(xí):一項(xiàng)調(diào)查. IEEE Trans Pattern Anal Mach Intell 43(12):4338–4364. https://doi.org/10.1109/tpami.2020.3005434
- Ye M, Shen J, Lin G 等 (2021) 針對(duì)人員重識(shí)別的深度學(xué)習(xí):調(diào)查和展望. IEEE Trans Pattern Anal Mach Intell 8828:1–1. https://doi.org/10.1109/tpami.2021.3054775
- Tran L, Liu X 非線性3D面部形態(tài)模型. 在: IEEE計(jì)算機(jī)視覺和模式識(shí)別會(huì)議論文集, 頁碼: 7346–7355
- Egger B, Smith WAP, Tewari A 等 (2020) 3D形態(tài)面部模型—過去、現(xiàn)在和未來. ACM Trans Graph 39(5):1–38. https://doi.org/10.1145/3395208
- Blanz V, Vetter T (1999) 基于3D形態(tài)模型擬合的面部識(shí)別. IEEE Trans Pattern Anal Mach Intell 25(9):1063–1074
- Booth J, Roussos A, Ponniah A 等 (2018) 大規(guī)模3D形態(tài)模型. Int J Comput Vis 126:233–254. https://doi.org/10.1007/s11263-017-1009-7
- Cao C, Weng Y, Zhou S 等 (2014) FaceWarehouse: 一個(gè)用于視覺計(jì)算的3D面部表情數(shù)據(jù)庫. IEEE Trans Vis Comput Graph 20:413–425. https://doi.org/10.1109/TVCG.2013.249
- Gerig T, Morel-Forster A, Blumer C 等 (2018) 形態(tài)面部模型 - 一個(gè)開放的框架. 在: 13th IEEE國(guó)際自動(dòng)面部手勢(shì)識(shí)別會(huì)議論文集, FG. 頁碼: 75–82. https://doi.org/10.1109/FG.2018.00021
- Huber P, Hu G, Tena R 等 (2016) 一種多分辨率3D形態(tài)面部模型和擬合框架. 在: 計(jì)算機(jī)視覺、成像和計(jì)算機(jī)圖形理論與應(yīng)用的第11次聯(lián)合會(huì)議論文集, 頁碼: 79–86. SciTePress.
- Li T, Bolkart T 等 (2017) 從4D掃描中學(xué)習(xí)面部形狀和表情的模型. ACM Trans Graphics 36(6):1–17. https://doi.org/10.1145/3130800.3130813
- Lin J, Yuan Y, Shao T, Zhou K (2020) 利用圖卷積網(wǎng)絡(luò)實(shí)現(xiàn)高保真3D面部重建. 計(jì)算機(jī)視覺模式識(shí)別 (CVPR). https://doi.org/10.1109/cvpr42600.2020.00593
- Paysan P, Knothe R, Amberg B 等 (2009) 一個(gè)用于姿態(tài)和照明不變面部識(shí)別的3D面部模型. 在: 第6屆IEEE國(guó)際高級(jí)視頻和基于信號(hào)的監(jiān)視會(huì)議, AVSS 2009. 頁碼: 296–301
- Kim D, Hernandez M, Choi J, Medioni G (2018) 深度3D面部識(shí)別. IEEE國(guó)際生物特征聯(lián)合會(huì)議 (IJCB), IJCB 2017 2018-January:133–142. https://doi.org/10.1109/BTAS.2017.8272691
- Gecer B, Ploumpis S, Kotsia I, Zafeiriou S (2019) Ganfit: 使用生成對(duì)抗網(wǎng)絡(luò)進(jìn)行高保真3D面部重建. 在: IEEE/CVF計(jì)算機(jī)視覺和模式識(shí)別會(huì)議論文集:1155–1164. https://doi.org/10.1109/CVPR.2019.00125
- Kim H, Garrido P, Tewari A 等 (2018) 深度視頻肖像. ACM Trans Graphics 37:1–14. https://doi.org/10.1145/3197517.3201283
- Maninchedda F, Oswald MR, Pollefeys M (2017) 快速重建戴眼鏡的面部3D模型. 在: IEEE/CVF 計(jì)算機(jī)視覺和模式識(shí)別會(huì)議(CVPR). https://doi.org/10.1109/CVPR.2017.490
- Zhang S, Yu H, Wang T 等 (2018) 在非限制環(huán)境中從單一深度圖像進(jìn)行密集的3D面部重建. 虛擬現(xiàn)實(shí) 22(1):37–46. https://doi.org/10.1007/s10055-017-0311-6
- Jiang L, Wu X, Kittler J (2018) 姿態(tài)不變的3D面部重建. 1–8. arXiv預(yù)印本arXiv:1811.05295
- Wu F, Li S, Zhao T等 (2019) 使用地標(biāo)位移進(jìn)行級(jí)聯(lián)回歸的3D面部重建. 模式識(shí)別信件 125:766–772. https://doi.org/10.1016/j.patrec.2019.07.017
- Kollias D, Cheng S, Ververas E等 (2020) 深度神經(jīng)網(wǎng)絡(luò)增強(qiáng):生成面部用于情感分析. 國(guó)際計(jì)算機(jī)視覺期刊 128:1455–1484. https://doi.org/10.1007/s11263-020-01304-3
- 4DFAB: A Large Scale 4D Facial Expression Database for Biometric Applications | DeepAI. https://deepai.org/publication/4dfab-a-large-scale-4d-facial-expression-database-for-biometric-applications. 訪問于 2020年10月14日
- Lyu J, Li X, Zhu X, Cheng C (2020) Pixel-Face: A Large-Scale, High-Resolution Benchmark for 3D Face Reconstruction. arXiv 預(yù)印本 arXiv:2008.12444
- Zhu Z, Luo P, Wang X, Tang X (2013) 深度學(xué)習(xí)身份保持面部空間. 在: IEEE 國(guó)際計(jì)算機(jī)視覺會(huì)議論文集. 電子與電氣工程師協(xié)會(huì),頁碼: 113–120
- Tang Y, Salakhutdinov R, Hinton G (2012) 深度 Lambertian 網(wǎng)絡(luò). arXiv 預(yù)印本 arXiv:1206.6445
- Richardson E, Sela M, Kimmel R (2016) 通過從合成數(shù)據(jù)學(xué)習(xí)進(jìn)行3D面部重建. 在: 2016年第4屆3D視覺國(guó)際會(huì)議,3DV 2016 論文集. 電子與電氣工程師協(xié)會(huì),頁碼: 460–467
- Richardson E, Sela M, Or-El R, Kimmel R (2017) 從單張圖片學(xué)習(xí)詳細(xì)的面部重建. 在: IEEE 計(jì)算機(jī)視覺和模式識(shí)別會(huì)議論文集,頁碼: 1259–1268
- Laine S, Karras T, Aila T, 等 (2016) 使用深度神經(jīng)網(wǎng)絡(luò)進(jìn)行面部表現(xiàn)捕獲. arXiv 預(yù)印本 arXiv:1609.06536,3
- Nair V, Susskind J, Hinton GE (2008) 通過學(xué)習(xí)反轉(zhuǎn)生成性黑箱進(jìn)行合成分析. 在: 國(guó)際人工神經(jīng)網(wǎng)絡(luò)會(huì)議,頁碼: 971–981
- Peng X, Feris RS, Wang X, Metaxas DN (2016) 一個(gè)用于連續(xù)面部對(duì)齊的循環(huán)編碼器-解碼器網(wǎng)絡(luò). 在: 歐洲計(jì)算機(jī)視覺會(huì)議,頁碼: 38–56.
- Zulqarnain Gilani S, Mian A (2018) 從數(shù)百萬個(gè)3D掃描中學(xué)習(xí)進(jìn)行大規(guī)模的3D面部識(shí)別. 在: IEEE 計(jì)算機(jī)學(xué)會(huì)計(jì)算機(jī)視覺和模式識(shí)別會(huì)議論文集,頁碼: 1896–1905. https://doi.org/10.1109/CVPR.2018.00203
- Thies J, Elgharib M, Tewari A, 等 (2019) 神經(jīng)聲音操控:音頻驅(qū)動(dòng)的面部再現(xiàn). 在: 歐洲計(jì)算機(jī)視覺會(huì)議,頁碼: 716–731
- Li X, Hu G, Zhu J等 (2020) 學(xué)習(xí)對(duì)稱一致的深度CNN用于面部完成. IEEE 圖像處理交易 29:7641–7655. https://doi.org/10.1109/TIP.2020.3005241
- Han X, Hou K, Du D等 (2020) CaricatureShop: 個(gè)性化與照片級(jí)別的漫畫素描。IEEE視覺與計(jì)算機(jī)圖形學(xué)交易 26:2349–2361. https://doi.org/10.1109/TVCG.2018.2886007
- Moschoglou S, Ploumpis S, Nicolaou MA等 (2020) 3DFaceGAN: 3D面部表征、生成和轉(zhuǎn)換的對(duì)抗性網(wǎng)絡(luò)。國(guó)際計(jì)算機(jī)視覺期刊 128(10):2534–2551. https://doi.org/10.1007/s11263-020-01329-8
- Feng M, Zulqarnain Gilani S, Wang Y等 (2018) “從光場(chǎng)圖像進(jìn)行3D面部重建: 一種無需模型的方法”。計(jì)算機(jī)科學(xué)講座筆記(包括人工智能講座筆記子系列和生物信息學(xué)講座筆記子系列)11214 LNCS: 508–526. https://doi.org/10.1007/978-3-030-01249-6_31
- Anbarjafari G, Haamer RE, LüSi I等 (2019) “使用移動(dòng)電話進(jìn)行基于區(qū)域的最佳擬合融合的3D面部重建,用于基于虛擬現(xiàn)實(shí)的社交媒體”。波蘭科學(xué)院科技科學(xué)公報(bào). 67: 125–132. https://doi.org/10.24425/bpas.2019.127341
- Kim H, Zollh?fer M, Tewari A等 (2018) “InverseFaceNet: 深度單眼逆面渲染”。在IEEE計(jì)算機(jī)視覺和模式識(shí)別會(huì)議論文集,頁4625–4634。
- Jackson AS, Bulat A, Argyriou V, Tzimiropoulos G (2017) “通過直接體積CNN回歸從單一圖像重建大姿態(tài)3D面部”。在IEEE計(jì)算機(jī)視覺國(guó)際會(huì)議論文集2017-Octob:1031–1039。https://doi.org/10.1109/ICCV.2017.117
- Eigen D, Puhrsch C, Fergus R (2014) “使用多尺度深度網(wǎng)絡(luò)從單一圖像預(yù)測(cè)深度圖”。預(yù)印版arXiv:1406.2283。
- Saxena A, Chung SH, Ng AY (2008) “從單一靜態(tài)圖像進(jìn)行3-D深度重建”。國(guó)際計(jì)算機(jī)視覺雜志76:53–69。https://doi.org/10.1007/s11263-007-0071-y
- Tulsiani S, Zhou T, Efros AA, Malik J (2017) “通過可微射線一致性進(jìn)行單視圖重建的多視圖監(jiān)督”。在IEEE計(jì)算機(jī)視覺和模式識(shí)別會(huì)議論文集,頁2626–2634。
- Tatarchenko M, Dosovitskiy A, Brox T (2017) “八叉樹生成網(wǎng)絡(luò): 高分辨率3D輸出的高效卷積架構(gòu)”。在IEEE計(jì)算機(jī)視覺國(guó)際會(huì)議論文集,頁2088–2096。
- Roth J, Tong Y, Liu X (2016) “從無約束的照片集合進(jìn)行3D面部的自適應(yīng)重建”。在IEEE計(jì)算機(jī)視覺和模式識(shí)別會(huì)議論文集,頁4197–4206。
- Kemelmacher-Shlizerman I, Seitz SM (2011) “在野外的面部重建”。在IEEE計(jì)算機(jī)視覺國(guó)際會(huì)議論文集,頁1746–1753。
- Xing Y, Tewari R, Mendon?a PRS (2019) “一種自我監(jiān)督的引導(dǎo)方法用于單圖像3D面部重建”。在2019年IEEE應(yīng)用計(jì)算視覺冬季會(huì)議論文集,WACV 2019:1014–1023。https://doi.org/10.1109/WACV.2019.00113
- Kemelmacher-Shlizerman I, Basri R (2011) “使用單一參考面形狀從單一圖像進(jìn)行3D面部重建”。IEEE模式分析與機(jī)器智能交易33:394–405。https://doi.org/10.1109/TPAMI.2010.63
- Sengupta S, Lichy D, Kanazawa A等 (2020) “SfSNet: 學(xué)習(xí)在野外的面部形狀、反射率和光照”。IEEE模式分析與機(jī)器智能交易。https://doi.org/10.1109/TPAMI.2020.3046915
- Jiang L, Zhang J, Deng B等 (2018) “從單一圖像重建包含幾何細(xì)節(jié)的3D面部”。IEEE圖像處理交易27:4756–4770。https://doi.org/10.1109/TIP.2018.2845697
- He K, Zhang X, Ren S, Sun J (2016) “用于圖像識(shí)別的深度殘差學(xué)習(xí)”。在IEEE計(jì)算機(jī)視覺和模式識(shí)別會(huì)議論文集,頁770–778。
- Liu F, Zeng D, Li J, Zhao Q, jun (2017) “在形狀空間中通過級(jí)聯(lián)回歸進(jìn)行3D面部重建”。信息技術(shù)和電子工程前沿18:1978–1990。https://doi.org/10.1631/FITEE.1700253
- Tewari A, Zollh?fer M, Kim H等 (2017) MoFA: 以模型為基礎(chǔ)的深度卷積面部自動(dòng)編碼器用于無監(jiān)督的單眼重建。在: 2017年IEEE國(guó)際計(jì)算機(jī)視覺會(huì)議工作論文集,ICCVW 2017 2018-Janua:1274-1283。https://doi.org/10.1109/ICCVW.2017.153
- Krizhevsky A, Sutskever I, Hinton GE (2012) ImageNet分類的深度卷積神經(jīng)網(wǎng)絡(luò)。神經(jīng)信息處理系統(tǒng)進(jìn)展25: 1097-1105
- 牛津大學(xué)視覺幾何組。http://www.robots.ox.ac.uk/~vgg/data/vgg_face/。訪問于2020年10月13日
- Dou P, Shah SK, Kakadiaris IA (2017) 深度神經(jīng)網(wǎng)絡(luò)的端到端3D面部重建。在: 第30屆IEEE計(jì)算機(jī)視覺模式識(shí)別會(huì)議,CVPR,1503-1512。https://doi.org/10.1109/CVPR.2017.164
- Han X, Gao C, Yu Y (2017) DeepSketch2Face: 一個(gè)基于深度學(xué)習(xí)的3D面部和漫畫模型的素描系統(tǒng)。ACM圖形交易36: 1-12。https://doi.org/10.1145/3072959.3073629
- Hsu GS, Shie HC, Hsieh CH, Chan JS (2018) 快速定位3D組件重建和CNN用于跨姿勢(shì)識(shí)別。IEEE電路和系統(tǒng)視頻技術(shù)交易28: 3194-3207。https://doi.org/10.1109/TCSVT.2017.2748379
- Cao X, Chen Z, Chen A等 (2018) 稀疏光度3D面部重建,由形態(tài)模型指導(dǎo)。IEEE計(jì)算機(jī)學(xué)會(huì)計(jì)算機(jī)視覺模式識(shí)別會(huì)議論文集。https://doi.org/10.1109/CVPR.2018.00487
- Tran AT, Hassner T, Masi I等 (2018) 極端3D面部重建:看穿遮擋。IEEE計(jì)算機(jī)學(xué)會(huì)計(jì)算機(jī)視覺模式識(shí)別會(huì)議論文集。https://doi.org/10.1109/CVPR.2018.00414
- Feng ZH, Huber P, Kittler J等 (2018) 對(duì)野外2D面部圖像的密集3D重建的評(píng)估。在: 第13屆IEEE國(guó)際自動(dòng)面部手勢(shì)識(shí)別會(huì)議,F(xiàn)G 2018 780-786。https://doi.org/10.1109/FG.2018.00123
- Feng Y, Wu F, Shao X等 (2018) 與位置圖回歸網(wǎng)絡(luò)的聯(lián)合3D面部重建和密集對(duì)齊。計(jì)算機(jī)科學(xué)講座筆記(包括人工智能講座筆記生物信息學(xué)講座筆記的子系列)11218 LNCS:557-574。https://doi.org/10.1007/978-3-030-01264-9_33
- Liu F, Zhu R, Zeng D等 (2018) 在3D面部形狀中解開特征,以進(jìn)行聯(lián)合面部重建和識(shí)別。IEEE計(jì)算機(jī)學(xué)會(huì)計(jì)算機(jī)視覺模式識(shí)別會(huì)議論文集。https://doi.org/10.1109/CVPR.2018.00547
- Chinaev N, Chigorin A, Laptev I (2019) MobileFace: 通過高效的CNN回歸進(jìn)行3D面部重建。在: Leal-Taixé Laura, Roth Stefan(編輯)計(jì)算機(jī)視覺 - ECCV 2018研討會(huì):德國(guó)慕尼黑,2018年9月8-14日,論文集,第四部分。Springer International Publishing, Cham, pp 15-30。https://doi.org/10.1007/978-3-030-11018-5_3
- Deng Y, Yang J, Xu S等 (2019) 使用弱監(jiān)督學(xué)習(xí)進(jìn)行精確的3D面部重建:從單圖像到圖像集。IEEE計(jì)算機(jī)學(xué)會(huì)計(jì)算機(jī)視覺模式識(shí)別研討會(huì)2019-June:285-295。https://doi.org/10.1109/CVPRW.2019.00038
- Yuan X, Park IK (2019) 使用3D形態(tài)模型和生成對(duì)抗網(wǎng)絡(luò)進(jìn)行面部去遮擋。在: IEEE國(guó)際計(jì)算機(jī)視覺會(huì)議論文集2019-Octob:10061-10070。https://doi.org/10.1109/ICCV.2019.01016
- Luo Y, Tu X, Xie M (2019) 學(xué)習(xí)魯棒的3D面部重建和判別性身份表示。2019年第二屆IEEE信息通信信號(hào)處理國(guó)際會(huì)議,ICICSP 2019 317-321。https://doi.org/10.1109/ICICSP48821.2019.8958506
- Gecer B, Lattas A, Ploumpis S等 (2019) 合成耦合3D面部模式的干線-支線生成對(duì)抗網(wǎng)絡(luò)。歐洲計(jì)算機(jī)視覺會(huì)議。Springer,Cham,pp 415-433
- Chen Y, Wu F, Wang Z等 (2019) 自我監(jiān)督學(xué)習(xí)的詳細(xì)3D面部重建。IEEE圖像處理交易29:8696-8705
- 大規(guī)模名人面部特征(CelebA)數(shù)據(jù)集。http://mmlab.ie.cuhk.edu.hk/projects/CelebA.html. 于2020年10月13日訪問
- 野外標(biāo)記面部(LFW)數(shù)據(jù)集 | Kaggle。https://www.kaggle.com/jessicali9530/lfw-dataset. 于2020年10月13日訪問
- Ren W, Yang J, Deng S, 等. (2019) 使用3D面部先驗(yàn)進(jìn)行面部視頻去模糊。在IEEE國(guó)際計(jì)算機(jī)視覺會(huì)議論文集中。2019-Octob:9387-9396. https://doi.org/10.1109/ICCV.2019.00948
- Jourabloo A, Liu X (2015) 對(duì)姿態(tài)不變的3D面部進(jìn)行對(duì)齊。在IEEE國(guó)際計(jì)算機(jī)視覺會(huì)議論文集中。pp 3694-3702
- Cheng S, Kotsia I, Pantic M, 等. (2018) 4DFAB:一個(gè)用于生物識(shí)別應(yīng)用的大規(guī)模4D面部表情數(shù)據(jù)庫。https://arxiv.org/pdf/1712.01443v2.pdf. 于2020年10月14日訪問
- Liu F, Zhao Q, Liu X, Zeng D (2020) 聯(lián)合面部對(duì)齊和3D面部重建在面部識(shí)別中的應(yīng)用。IEEE圖形模式分析與機(jī)器智能交易。42:664-678. https://doi.org/10.1109/TPAMI.2018.2885995
- Ye Z, Yi R, Yu M, 等 (2020) 3D-CariGAN:從面部照片到3D漫畫生成的端到端解決方案。1-17. arXiv預(yù)印本arXiv:2003.06841
- Huo J, Li W, Shi Y, 等. (2017) 網(wǎng)絡(luò)漫畫:用于漫畫識(shí)別的基準(zhǔn)測(cè)試。arXiv預(yù)印本arXiv:1703.03230
- Lattas A, Moschoglou S, Gecer B, 等 (2020) AvatarMe:真實(shí)可渲染的“實(shí)地”3D面部重建。757-766. https://doi.org/10.1109/cvpr42600.2020.00084
- Cai H, Guo Y, Peng Z, Zhang J (2021) 使用非線性參數(shù)模型進(jìn)行漫畫的關(guān)鍵點(diǎn)檢測(cè)和3D面部重建。圖形模型115:101103. https://doi.org/10.1016/j.gmod.2021.101103
- Deng Y, Yang J, Chen D, 等 (2020) 通過3D模仿-對(duì)比學(xué)習(xí)進(jìn)行解開和可控的面部圖像生成。https://doi.org/10.1109/cvpr42600.2020.00520
- Li K, Yang J, Jiao N, 等 (2020) 從單個(gè)圖像進(jìn)行自適應(yīng)的3D面部重建。1-11. arXiv預(yù)印本arXiv:2007.03979
- Chaudhuri B, Vesdapunt N, Shapiro L, Wang B (2020) 為提高面部重建和動(dòng)作重定向的個(gè)性化面部建模。在Vedaldi A, Bischof H, Brox T, Frahm J-M (eds) 計(jì)算機(jī)視覺 - ECCV 2020:第16屆歐洲會(huì)議,格拉斯哥,英國(guó),2020年8月23-28日,論文集,第五部分。Springer International Publishing, Cham, pp 142-160. https://doi.org/10.1007/978-3-030-58558-7_9
- Shang J, Shen T, Li S, 等 (2020) 自我監(jiān)督的單目3D面部重建通過考慮遮擋的多視圖幾何一致性。在計(jì)算機(jī)視覺-ECCV 2020:第16屆歐洲會(huì)議,格拉斯哥,英國(guó),2020年8月23-28日,論文集,第十五部分16 (pp. 53-70). Springer International Publishing
- Cai X, Yu H, Lou J, 等 (2020) 使用關(guān)注引導(dǎo)的生成對(duì)抗網(wǎng)絡(luò)從深度視圖中恢復(fù)3D面部幾何形狀。arXiv預(yù)印本arXiv:2009.00938
- Xu S, Yang J, Chen D, 等 (2020) 從單個(gè)圖像進(jìn)行深度3D肖像。7707-7717. https://doi.org/10.1109/cvpr42600.2020.00773
- Zhang J, Lin L, Zhu J, Hoi SCH (2021) 弱監(jiān)督的多面3D重建。1-9. arXiv預(yù)印本arXiv:2101.02000
- K?stinger M, Wohlhart P, Roth PM, Bischof H (2011) 野外注釋的面部標(biāo)記:面部標(biāo)記定位的大規(guī)模、真實(shí)世界數(shù)據(jù)庫。IEEE國(guó)際計(jì)算機(jī)視覺會(huì)議論文集。https://doi.org/10.1109/ICCVW.2011.6130513
- ICG - AFLW。https://www.tugraz.at/institute/icg/research/teambischof/lrs/downloads/afw/. 于2020年10月14日訪問
- Tu X, Zhao J, Jiang Z等 (2019) 野外2D人臉圖像輔助的單圖像3D人臉重建. IEEE Trans Multimed. https://doi.org/10.1109/TMM.2020.2993962
- Moschoglou S, Papaioannou A, Sagonas C等 (2017) AgeDB: 第一個(gè)手動(dòng)采集的野外年齡數(shù)據(jù)庫. 在IEEE計(jì)算機(jī)視覺和模式識(shí)別會(huì)議的論文集,第51-59頁
- Morphace. https://faces.dmi.unibas.ch/bfm/main.php?nav=1-1-0&id=details. 訪問于2020年10月14日
- Savran A, Alyüz N, Dibeklio?lu H等 (2008) 用于3D面部分析的博斯普魯斯數(shù)據(jù)庫. 歐洲生物識(shí)別和身份管理研討會(huì). Springer, Berlin, Heidelberg, 第47-56頁
- 3D面部表情數(shù)據(jù)庫 - 賓漢姆頓大學(xué). http://www.cs.binghamton.edu/~lijun/Research/3DFE/3DFE_Analysis.html. 訪問于2020年10月13日
- 生物特征與安全研究中心. http://www.cbsr.ia.ac.cn/english/3DFace Databases.asp. 訪問于2020年10月14日
- Yi D, Lei Z, Liao S, Li SZ (2014) 從零開始學(xué)習(xí)人臉表征. arXiv預(yù)印本 arXiv:1411.7923
- 在野外的正側(cè)面名人. http://www.cfpw.io/. 訪問于2020年10月14日
- Yang H, Zhu H, Wang Y等 (2020) FaceScape: 大規(guī)模高質(zhì)量3D人臉數(shù)據(jù)集和詳細(xì)可操縱的3D面部預(yù)測(cè). 598-607
- FaceWarehouse. http://kunzhou.net/zjugaps/facewarehouse/. 訪問于2020年10月13日
- Phillips PJ, Flynn PJ, Scruggs T等 (2005) 人臉識(shí)別大挑戰(zhàn)概述. 在2005年IEEE計(jì)算機(jī)協(xié)會(huì)計(jì)算機(jī)視覺和模式識(shí)別會(huì)議(CVPR’05),第1卷: 947-954頁
- MORENO, A. (2004) GavabDB : 一個(gè)3D人臉數(shù)據(jù)庫. 在第二屆COST275互聯(lián)網(wǎng)生物識(shí)別工作論文集,2004年,75-80頁
- Le V, Brandt J, Lin Z等 (2012) 交互式面部特征定位. 計(jì)算機(jī)科學(xué)講座筆記(包括人工智能講座筆記生物信息學(xué)講座筆記)7574 LNCS:679-692. https://doi.org/10.1007/978-3-642-33712-3_49
- IJB-A數(shù)據(jù)集請(qǐng)求表 | NIST. https://www.nist.gov/itl/iad/image-group/ijb-dataset-request-form. 訪問于2020年10月14日
- Min R, Kose N, Dugelay JL (2014) KinectfaceDB: 用于面部識(shí)別的Kinect數(shù)據(jù)庫. IEEE Trans Syst Man, Cybern Syst 44:1534-1548. https://doi.org/10.1109/TSMC.2014.2331215
- Belhumeur PN, Jacobs DW, Kriegman DJ, Kumar N (2011) 使用一致的示例定位面部部位. IEEE計(jì)算機(jī)學(xué)會(huì)計(jì)算機(jī)視覺模式識(shí)別會(huì)議論文集. https://doi.org/10.1109/CVPR.2011.5995602
- Bagdanov AD, Del Bimbo A, Masi I (2011) Forence 2D/3D混合面部數(shù)據(jù)集. 在2011年ACM聯(lián)合工作室的人類手勢(shì)和行為理解工作坊 - J-HGBU '11的論文集. ACM出版社,美國(guó)紐約,第79頁
- Notre Dame CVRL. https://cvrl.nd.edu/projects/data/#nd-2006-data-set. 訪問于2020年10月13日
- 德州大學(xué)奧斯汀分校圖像和視頻工程實(shí)驗(yàn)室. http://live.ece.utexas.edu/research/texas3dfr/. 訪問于2020年10月14日
- Le HA, Kakadiaris IA (2017) UHDB31: 一個(gè)用于更好理解姿態(tài)和照明變化下的面部識(shí)別的數(shù)據(jù)集. 在2017年IEEE國(guó)際計(jì)算機(jī)視覺研討會(huì)(ICCVW)論文集. IEEE, 第2555-2563頁
- Colombo A, Cusano C, Schettini R (2011) UMB-DB: 一個(gè)部分遮擋的3D面部數(shù)據(jù)庫. 在IEEE國(guó)際計(jì)算機(jī)視覺會(huì)議論文集,第2113-2119頁
- Parkhi OM, Vedaldi A, Zisserman A, (2015) 深度面部識(shí)別. 第1-12頁
- Sanderson C (2002) VidTIMIT數(shù)據(jù)庫. (No. REP_WORK). IDIAP
- Son Chung J, Nagrani A, Zisserman A, (2018) VoxCeleb2: 深度 聲紋識(shí)別。arXiv 預(yù)印本 arXiv:1806.05622
- YouTube Faces Database : 主頁。https://www.cs.tau.ac.il/~wolf/ytfaces/ 。訪問于 2020年10月14日
- 300-VW | 計(jì)算機(jī)視覺在線。https://computervisiononline/.com/dataset/1105138793 。訪問于 2020年10月13日
- i·bug - 資源 - 300 Faces In-the-Wild Challenge (300- W), ICCV 2013。https://ibug.doc.ic.ac.uk/resources/300-W/ 。訪問于 2020年10月14日
- Vijayan V, Bowyer K, Flynn P (2011) 3D 雙胞胎和表情挑戰(zhàn)。在:IEEE 國(guó)際計(jì)算機(jī)視覺會(huì)議論文集。pp 2100–2105
- AI + X: 不要更換職業(yè),加入 AI - YouTube。http://www.youtube.com/watch?v=4Ai7wmUGFNA 。訪問于2021年2月5日
- Cao C, Hou Q, Zhou K (2014) 用于實(shí)時(shí)面部追蹤和動(dòng)畫的位移動(dòng)態(tài)表達(dá)回歸。在:ACM 圖形學(xué)交易。計(jì)算機(jī)協(xié)會(huì),pp 1–10
- Bouaziz S, Wang Y, Pauly M (2013) 實(shí)時(shí)面部動(dòng)畫的在線建模。ACM Trans Graph 32:1–10。https://doi.org/10.1145/2461912.2461976
- Garrido P, Valgaerts L, Sarmadi H 等 (2015) VDub: 修改演員面部視頻,以與配音音軌有可信度的視覺對(duì)齊。計(jì)算機(jī)圖形論壇 34:193–204。https://doi.org/10.1111/cgf.12552
- Thies J, Zollh?fer M, Stamminger M, 等 Face2Face: RGB 視頻的實(shí)時(shí)面部捕獲和重演
- MIT 深度學(xué)習(xí)介紹 | 6.S191 - YouTube。https://www.youtube.com/watch?v=5tvmMX8r_OM 。訪問于 2021年2月8日
- Garrido P, Valgaerts L, Wu C, Theobalt C (2013) 從單目視頻重建詳細(xì)的動(dòng)態(tài)面部幾何。ACM Trans Graph 32:1–10。https://doi.org/10.1145/2508363.2508380
- Viswanathan S, Heisters IES, Evangelista BP, 等。 (2021) 生成增強(qiáng)現(xiàn)實(shí)化妝效果的系統(tǒng)和方法。U.S. Patent 10,885,697
- Nam H, Lee J, Park JI (2020) 使用 RGB 攝像頭的交互式像素單元 AR 唇部化妝系統(tǒng)。廣播工程雜志 25(7):1042–51
- Siegl C, Lange V, Stamminger M, 等 FaceForge: 無標(biāo)記非剛性面部多投影映射
- 使用靜態(tài)圖像和面部工具在視頻中替換面部 - After Effects 教程 - YouTube。https://www.youtube.com/watch?v=x7T5jiUpUiE 。訪問于 2021年2月6日
- Antipov G, Baccouche M 和 Dugelay JL, (2017), 用條件生成對(duì)抗網(wǎng)絡(luò)進(jìn)行面部老化。在:IEEE 國(guó)際圖像處理會(huì)議 (ICIP),pp. 2089–2093
- Shi C, Zhang J, Yao Y 等 (2020) CAN-GAN: 有條件注意標(biāo)準(zhǔn)化的生成對(duì)抗網(wǎng)絡(luò)用于面部年齡合成。模式識(shí)別信件 138:520–526。https://doi.org/10.1016/j.patrec.2020.08.021
- Fang H, Deng W, Zhong Y, Hu J (2020) Triple-GAN: 使用三重轉(zhuǎn)化損失進(jìn)行漸進(jìn)式面部老化。在:IEEE 計(jì)算社團(tuán)會(huì)議計(jì)算機(jī)視覺模式識(shí)別研討會(huì) 2020年6月:3500–3509。https://doi.org/10.1109/CVPRW50498.2020.00410
- Huang Z, Chen S, Zhang J, Shan H (2020) PFA-GAN: 用生成對(duì)抗網(wǎng)絡(luò)進(jìn)行漸進(jìn)式面部老化。IEEE 交易信息取證和安全。https://doi.org/10.1109/TIFS.2020.3047753
- Liu S, Li D, Cao T 等 (2020) 基于 GAN 的面部屬性編輯。IEEE 授權(quán) 8:34854–34867。https://doi.org/10.1109/ACCESS.2020.2974043
- Yadav D, Kohli N, Vatsa M, 等 (2020) Age gap reducer-GAN 用于識(shí)別年齡間隔的臉。在:25th 國(guó)際模式識(shí)別會(huì)議 (ICPR),pp 10090–10097
- Sharma N, Sharma R, Jindal N (2020) 利用生成對(duì)抗網(wǎng)絡(luò)進(jìn)行面部年齡進(jìn)展和增強(qiáng)超分辨率的改進(jìn)技術(shù). 無線個(gè)人通信 114:2215-2233. https://doi.org/10.1007/s11277-020-07473-1
- Liu L, Yu H, Wang S 等 (2021) 學(xué)習(xí)形狀和紋理進(jìn)程以實(shí)現(xiàn)兒童面部老化. 信號(hào)處理圖像通訊 93:116127. https://doi.org/10.1016/j.image.2020.116127
- Nirkin Y, Keller Y, Hassner T (2019) FSGAN: 不受主題影響的面部替換和再演. 在:IEEE/CVF 國(guó)際計(jì)算機(jī)視覺會(huì)議論文集,第 7184-7193 頁
- Tripathy S, Kannala J, Rahtu E (2020) ICface: 使用GAN 進(jìn)行可解釋和可控的面部再演. 在:IEEE/CVF 計(jì)算機(jī)視覺應(yīng)用的冬季會(huì)議論文集,第 3385-3394 頁
- Ha S, Kersner M, Kim B, 等 (2019) MarioNETte: 少次樣本面部再演,保留未見過的目標(biāo)的身份. arXiv 34:10893-10900
- Zhang J, Zeng ? Xianfang, Wang M, 等 (2020) FReeNet: 多身份面部再演. 在:IEEE/CVF 計(jì)算機(jī)視覺和模式識(shí)別會(huì)議論文集,第 5326-5335 頁.
- Zeng X, Pan Y, Wang M, 等 (2020) 實(shí)現(xiàn)真實(shí)面部再演的自我監(jiān)督身份和姿勢(shì)的解耦. arXiv 34:12757-12764
- Ding X, Raziei Z, Larson EC, 等 (2020) 利用深度學(xué)習(xí)和主觀評(píng)估進(jìn)行換臉檢測(cè). EURASIP 信息安全雜志,第 1-12 頁
- Zukerman J, Paglia M, Sager C, 等 (2019) 視頻操作與面部替換. U.S. 專利 10,446,189
- Hoshen D (2020) MakeupBag: 分離化妝提取和應(yīng)用. arXiv 預(yù)印本 rXiv:2012.02157
- Li Y, Huang H, Yu J, 等 (2020) 美容意識(shí)的化妝清潔器. arXiv 預(yù)印本 arXiv:2004.09147
- Horita D, Aizawa K (2020) SLGAN: 風(fēng)格和潛在引導(dǎo)的生成對(duì)抗網(wǎng)絡(luò),用于理想的化妝轉(zhuǎn)移和去除. arXiv 預(yù)印本 arXiv:2009.07557
- Wu W, Zhang Y, Li C, 等 (2018) ReenactGAN: 通過邊界轉(zhuǎn)移學(xué)習(xí)再現(xiàn)面部. 在:歐洲計(jì)算機(jī)視覺會(huì)議 (ECCV) 論文集,第 603-619 頁
- Nirkin Y, Wolf L, Keller Y, Hassner T (2020) 基于面部及其上下文間差異的 DeepFake 檢測(cè). arXiv 預(yù)印本 arXiv:2008.12262.
- Tolosana R, Vera-Rodriguez R, Fierrez J 等 (2020) 深度偽造及其后果:面部操縱和假設(shè)檢測(cè)的調(diào)查. 信息融合 64:131-148
- Shubham K, Venkatesh G, Sachdev R, 等 (2020) 在預(yù)先訓(xùn)練的GAN的潛在空間上學(xué)習(xí)一個(gè)深度強(qiáng)化學(xué)習(xí)策略進(jìn)行語義年齡操作. 在:2021 國(guó)際神經(jīng)網(wǎng)絡(luò)聯(lián)合會(huì)議 (IJCNN),第 1-8 頁. IEEE
- Karras T, Aila T, Laine S, Lehtinen J (2017) GANs的逐步增長(zhǎng),以提高質(zhì)量、穩(wěn)定性和變異. arXiv 預(yù)印本 arXiv:1710.10196
- Pham QTM, Yang J, Shin J (2020) 半監(jiān)督 FaceGAN 用于面部年齡進(jìn)度和回歸與合成配對(duì)圖像. 電子 9:1-16. https://doi.org/10.3390/electronics9040603
- Zhu H, Huang Z, Shan H, Zhang J (2020) 全局觀察,局部衰老:帶有注意力機(jī)制的面部衰老 Haiping Zhu Zhizhong Huang Hongming Shan 上海智能信息處理重點(diǎn)實(shí)驗(yàn)室,復(fù)旦大學(xué)計(jì)算機(jī)科學(xué)學(xué)院,中國(guó),200433. ICASSP 2020 - 2020 IEEE 國(guó)際音頻、語音和信號(hào)處理大會(huì)論文集 1963–1967
- Wu S, Rupprecht C, Vedaldi A (2021) 在野外的圖像中無監(jiān)督學(xué)習(xí)可能對(duì)稱的可變形3D物體. IEEE Trans Pattern Anal Mach Intell. https://doi.org/10.1109/TPAMI.2021.3076536
- Heidekrueger PI, Juran S, Szpalski C 等 (2017) 當(dāng)前首選的女性唇部比例. J Cranio-Maxillofacial Surg 45:655-660. https://doi.org/10.1016/j.jcms.2017.01.038
- Baudoin J, Meuli JN, di Summa PG 等 (2019) 上唇美容復(fù)原的全面指南. J Cosmet Dermatol 18:444-450
- Garrido P, Zollh?fer M, Wu C 等 (2016) 從單目視頻中進(jìn)行嘴唇的糾正3D重建. ACM Trans Graph 35:1-11. https://doi.org/10.1145/2980179.2982419
- Wu C, Bradley D, Garrido P 等 (2016) 基于模型的牙齒重建. ACM Trans Graph 35(6):220-221. https://doi.org/10.1145/2980179.2980233
- Wen Q, Xu F, Lu M, Yong JH (2017) 從語義邊緣進(jìn)行實(shí)時(shí)3D眼皮追蹤. ACM Trans Graph 36:1-11. https://doi.org/10.1145/3130800.3130837
- Wang C, Shi F, Xia S, Chai J (2016) 使用單個(gè)RGB相機(jī)進(jìn)行實(shí)時(shí)3D眼睛凝視動(dòng)畫. ACM Trans Graph 35:1-14. https://doi.org/10.1145/2897824.2925947
- Zhou X, Lin J, Jiang J, Chen S (2019) 學(xué)習(xí)一個(gè)改進(jìn)的itracker結(jié)合雙向LSTM的3D凝視估計(jì)器. 在: IEEE國(guó)際多媒體和博覽會(huì)論文集. IEEE計(jì)算機(jī)協(xié)會(huì), pp 850-855
- Li H, Hu L, Saito S (2020) 使用體積變分自編碼器進(jìn)行3D頭發(fā)合成. ACM Transactions on Graphics (TOG) 37(6):1-12
- Ye Z, Li G, Yao B, Xian C (2020) HAO-CNN: 基于體積矢量場(chǎng)的有意識(shí)的頭發(fā)重建. Comput Animat Virtual Worlds 31:e1945. https://doi.org/10.1002/cav.1945
- He H, Li G, Ye Z 等 (2019) 數(shù)據(jù)驅(qū)動(dòng)的3D人頭重建. Comput Graph 80:85-96. https://doi.org/10.1016/j.cag.2019.03.008
出版商聲明: Springer Nature對(duì)于出版地圖和機(jī)構(gòu)所屬關(guān)系中的司法主張保持中立。文章來源地址http://www.zghlxwxcb.cn/news/detail-623487.html
到了這里,關(guān)于【計(jì)算機(jī)視覺|人臉建?!可疃葘W(xué)習(xí)時(shí)代的3D人臉重建調(diào)查報(bào)告的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!