找論文搭配 Sci-Hub 食用更佳 ??
Sci-Hub 實(shí)時更新 : https://tool.yovisun.com/scihub/
公益科研通文獻(xiàn)求助:https://www.ablesci.com/
總述
人臉識別流程:檢測、對齊、(活體)、預(yù)處理、提取特征(表示)、人臉識別(驗證)
傳統(tǒng)特征方法
傳統(tǒng)方法試圖通過一兩層表示來識別人臉,例如過濾響應(yīng)、特征直方圖分布。學(xué)術(shù)圈進(jìn)行了深入的研究,分別改進(jìn)了預(yù)處理、局部描述符和特征轉(zhuǎn)換,但這些方法在提高FR準(zhǔn)確性方面進(jìn)展緩慢。更糟糕的是,大多數(shù)方法只針對不受約束的面部變化的一個方面,如光照、姿勢、表情,并沒有任何綜合技術(shù)來整體解決這些不受約束的挑戰(zhàn)。因此,經(jīng)過十多年的持續(xù)努力,“淺層”方法僅將LFW基準(zhǔn)數(shù)據(jù)集的準(zhǔn)確性提高到約95%[15],這表明“淺層的”方法不足以提取對真實(shí)世界變化的穩(wěn)定身份特征信息。
深度學(xué)習(xí)方法
GhostFaceNets: Lightweight Face Recognition Model From Cheap Operations ,IEEE Access,2023,LFW dataset Rank 1.
混合精度,(sub-center) arcface cosface loss, ghostnet (lightweight, cvpr)
Deep Polynomial Neural Networks,2021,作者來自英國倫敦帝國理工學(xué)院計算系、瑞士洛桑聯(lián)邦理工學(xué)院 (EPFL) 電氣工程系、希臘雅典大學(xué)信息學(xué)和電信系,該方法已申請專利。
多項式神經(jīng)網(wǎng)絡(luò),即輸出是輸入的高階多項式。未知參數(shù)自然地由高階張量表示,通過因子共享的集體張量分解來估計。作者介紹了三種顯著減少參數(shù)數(shù)量的張量分解,并展示了如何通過分層神經(jīng)網(wǎng)絡(luò)有效地實(shí)現(xiàn)它們。并憑經(jīng)驗證明,π-Nets 具有很強(qiáng)的表現(xiàn)力,它們甚至可以在大量任務(wù)和信號(即圖像、圖形和音頻)中不使用非線性激活函數(shù)的情況下產(chǎn)生良好的結(jié)果。當(dāng)與激活函數(shù)結(jié)合使用時,Π-Nets 在圖像生成、人臉驗證和 3D 網(wǎng)格表示學(xué)習(xí)三個具有挑戰(zhàn)性的任務(wù)中產(chǎn)生了最先進(jìn)的結(jié)果。
ArcFace: Additive Angular Margin Loss for Deep Face Recognition
DCNN 將人臉圖像(通常在姿勢歸一化步驟 [7]、[8] 之后)映射到應(yīng)該具有較小的類內(nèi)距離和較大的類間距離的特征。訓(xùn)練 DCNN 進(jìn)行人臉識別有兩個主要研究方向。一些訓(xùn)練一個多類分類器,可以在訓(xùn)練集中分離不同的身份,例如使用 softmax 分類器 [2]、[4]、[9]、[10]、[11],其他直接學(xué)習(xí)嵌入,例如三元組損失 [3]。
基于大規(guī)模訓(xùn)練數(shù)據(jù)和精細(xì)的 DCNN 架構(gòu),softmax-loss 的方法 [9] 和triplet-loss 的方法 [3] 都可以獲得出色的人臉識別性能。然而,softmax loss 和 triplet loss 都有一些缺點(diǎn)。
對于 softmax 損失:(1)學(xué)習(xí)到的特征對于閉集分類問題是可分離的,但對于開放集人臉識別問題的區(qū)分度不夠; (2) 線性變換矩陣 W ∈ R d × N W \in \mathbb{R}^{ d×N} W∈Rd×N 的大小隨身份數(shù) N N N 線性增加。
對于三元組損失: (1) 人臉三元組的數(shù)量組合爆炸式增長,尤其是對于大規(guī)模數(shù)據(jù)集,導(dǎo)致迭代步數(shù)顯著增加; (2) 半難樣本挖掘?qū)τ谟?xùn)練有效的模型來說相當(dāng)困難。
DiscFace: Minimum Discrepancy Learning for Deep Face Recognition,2020,ACCV
作者發(fā)現(xiàn)了基于Softmax的方法的一個重要問題:在訓(xùn)練階段,對應(yīng)類權(quán)重附近的樣本特征同樣受到懲罰,盡管它們的方向不同。為了緩解這一問題,提出了一種新的訓(xùn)練方案,稱為最小差異學(xué)習(xí),它通過使用單一的可學(xué)習(xí)基來強(qiáng)制類內(nèi)樣本特征的方向向最優(yōu)方向?qū)R。
早些時候,深度度量學(xué)習(xí)方法通??過樣本對(或三元組)之間距離的局部關(guān)系學(xué)習(xí)人臉嵌入,從而在類不平衡數(shù)據(jù)集下取得了可喜的成果 [1–3, 11]。深度度量學(xué)習(xí)能夠通過利用某些度量損失直接捕獲更多的判別力。然而,它們的性能在很大程度上取決于采樣和挖掘策略,因此,度量學(xué)習(xí)模型通常需要耗時的來回過程來訓(xùn)練。
與分類任務(wù)相比,學(xué)習(xí)大邊緣判別特征對于人臉識別任務(wù)至關(guān)重要,特別是在開放集協(xié)議下,這是一種更現(xiàn)實(shí)但更具挑戰(zhàn)性的人臉識別協(xié)議 [6]。許多工作都試圖修改 softmax 損失以獲得有效的 large-margin 判別特征 [5, 6, 13, 7, 8]。這樣的變體能夠直接優(yōu)化特征之間的角度和超球面流形中相應(yīng)的類權(quán)重。
然而,作者觀察到,在開放集協(xié)議下,它們的評估性能可能會受到訓(xùn)練和評估過程之間差異的影響:訓(xùn)練期間使用樣本特征和 softmax 類權(quán)重之間的匹配分?jǐn)?shù),而在評估階段(沒有類別權(quán)重)匹配分?jǐn)?shù)是在不同樣本特征之間計算的。這種差異導(dǎo)致樣本特征之間存在方向差異,如圖 1 所示。作者將此問題稱為“process discrepancy”。
總之,該方案專門用于減輕訓(xùn)練和評估階段之間的過程差異,以便在評估階段提供更好的性能。這是第一個基于 softmax 學(xué)習(xí)方法的用于解決過程差異問題的人臉識別任務(wù),而以前的方法只關(guān)注判別學(xué)習(xí)。
MagFace: A universal representation for face recognition and quality ssessment
MagFace 探索了根據(jù)可識別性應(yīng)用不同邊距的想法。它在高范數(shù)特征易于識別的前提下,對高范數(shù)特征應(yīng)用大角度邊距。大邊緣將高范數(shù)的特征推向類中心。然而,它未能強(qiáng)調(diào)難訓(xùn)練樣本,這對于學(xué)習(xí)判別特征來說很重要。
AdaFace: Quality Adaptive Margin for Face Recognition
影響圖像質(zhì)量的因素包括亮度、對比度、清晰度、噪聲、顏色恒定性、分辨率、色調(diào)再現(xiàn)等。論文關(guān)注的人臉圖像可以在各種照明、姿勢和面部表情設(shè)置下拍攝,有時也可以在受試者的年齡或化妝等極端視覺變化下拍攝。這些參數(shù)設(shè)置使得學(xué)習(xí)的人臉識別(FR)模型的識別任務(wù)變得困難。盡管如此,這項任務(wù)是可以實(shí)現(xiàn)的,因為人類或模型通??梢栽谶@些困難的環(huán)境下識別人臉[37]。
先前的研究已經(jīng)證明了自適應(yīng)損失的影響,以賦予錯誤分類(hard)樣本更多的重要性。文章中,作者引入了損失函數(shù)中自適應(yīng)性的另一個方面,即圖像質(zhì)量。作者認(rèn)為,強(qiáng)調(diào)錯誤分類樣本的策略應(yīng)該根據(jù)它們的圖像質(zhì)量進(jìn)行調(diào)整。具體而言,簡單樣本或難樣本的相對重要性應(yīng)基于樣本的圖像質(zhì)量。因此提出了一種新的損失函數(shù),該函數(shù)根據(jù)不同難度的樣本的圖像質(zhì)量來強(qiáng)調(diào)它們。具體實(shí)現(xiàn)方法是通過用特征范數(shù)逼近圖像質(zhì)量,以自適應(yīng)邊緣函數(shù)的形式實(shí)現(xiàn)了這一點(diǎn)。
由于存在無法識別的面部圖像(下圖紅色區(qū)域),作者想設(shè)計一個損失函數(shù),根據(jù)圖像質(zhì)量為不同難度的樣本分配不同的重要性。目標(biāo)是強(qiáng)調(diào)高質(zhì)量圖像的硬樣本和低質(zhì)量圖像的簡單樣本,如果圖像質(zhì)量低,損失函數(shù)會強(qiáng)調(diào)簡單的樣本(從而避免無法識別的圖像)。否則,損失會強(qiáng)調(diào)hard樣本。
作者發(fā)現(xiàn) 1) 特征范數(shù)可以很好地代表圖像質(zhì)量, 2) 各種邊緣函數(shù)相當(dāng)于為樣本的不同難度分配不同的重要性。這兩個發(fā)現(xiàn)結(jié)合在一個統(tǒng)一的損失函數(shù) AdaFace 中,它根據(jù)圖像質(zhì)量自適應(yīng)地改變邊緣函數(shù),為不同難度的樣本分配不同的重要性(見上圖)
許多研究在硬樣本挖掘 [22、40]、訓(xùn)練期間的調(diào)度難度 [16、35] 或?qū)ふ易罴殉瑓?shù) [45] 的訓(xùn)練目標(biāo)中引入了適應(yīng)性元素。例如,CurricularFace [16] 將課程學(xué)習(xí)的思想帶入了損失函數(shù)。在訓(xùn)練的初始階段,將
c
o
s
θ
j
cos θ_j
cosθj?(負(fù)余弦相似度)的邊距設(shè)置得較小,以便學(xué)習(xí)容易的樣本,在后期階段,增加邊距,以便學(xué)習(xí)難的樣本
t 是隨著訓(xùn)練的進(jìn)行而增加的參數(shù)。
因此,在 CurricularFace 中,margin 中的自適應(yīng)性是基于訓(xùn)練進(jìn)程(curriculum)的。
IJB-B [41]、IJB-C [26] 和 IJB-S [17]中大多數(shù)圖像質(zhì)量較低,有些不包含足夠的身份信息,即使對于人類也是如此考官。良好性能的關(guān)鍵包括 1) 學(xué)習(xí)低質(zhì)量圖像的判別特征和 2) 學(xué)習(xí)丟棄包含很少身份線索的圖像,后者有時被稱為質(zhì)量感知融合
QMagFace: Simple and Accurate Quality-Aware Face Recognition
作者將質(zhì)量感知比較分?jǐn)?shù)與基于幅度感知角度邊緣損失的識別模型相結(jié)合。所提出的方法在比較過程中包括特定于模型的人臉圖像質(zhì)量,以增強(qiáng)在不受約束的情況下的識別性能。利用質(zhì)量與其由使用損失引起的比較分?jǐn)?shù)之間的線性關(guān)系,該質(zhì)量感知比較函數(shù)簡單且高度通用。
FaceNet: A Unified Embedding for Face Recognition and Clustering,2015
FaceNet 直接學(xué)習(xí)從面部圖像到緊湊歐幾里得空間的映射,其中距離直接對應(yīng)于面部相似性的度量。一旦產(chǎn)生了這個空間,就可以使用標(biāo)準(zhǔn)技術(shù)將 FaceNet 嵌入作為特征向量輕松實(shí)現(xiàn)人臉識別、驗證和聚類等任務(wù)。
該方法使用經(jīng)過訓(xùn)練的深度卷積網(wǎng)絡(luò)來直接優(yōu)化嵌入本身,而不是像以前的深度學(xué)習(xí)方法那樣使用中間瓶頸層。為了進(jìn)行訓(xùn)練,作者使用了一種新穎的在線三元組挖掘方法生成的大致對齊的匹配/非匹配面部補(bǔ)丁的三元組。方法的好處是表示效率更高:僅使用每張臉 128 字節(jié)就實(shí)現(xiàn)了最先進(jìn)的人臉識別性能
損失函數(shù)演進(jìn)
基于 Softmax 的學(xué)習(xí):在各種應(yīng)用中許多方法已經(jīng)研究基于 softmax 的判別特征學(xué)習(xí) [18-25]。在人臉識別任務(wù)中,Center loss [4]提出了一種最小化類內(nèi)方差的方法。該方法計算每個類的樣本質(zhì)心,并最小化特征向量與其對應(yīng)質(zhì)心之間的類內(nèi)距離。 Crystal loss [26]引入一個約束來強(qiáng)制特征向量的范數(shù)為某個值。Ring loss[27]使范數(shù)成為可訓(xùn)練的參數(shù),并鼓勵對特征向量的范數(shù)進(jìn)行最佳訓(xùn)練。 NormFace [5] 是一種學(xué)習(xí)超球體流形特征的方案,這樣類之間的區(qū)分就可以通過角度來完成。Sphereface [6] 引入了乘法角度邊緣損失,使特征更具辨別力。類似的方式,CosFace [7] 和 ArcFace [8] 證明了角邊距的有效性,它們以不同的方式使用角距。
基于度量學(xué)習(xí): 基于度量的學(xué)習(xí)方法 [1-3] 直接從樣本之間的關(guān)系中學(xué)習(xí)判別特征。對比損失 [1] 使用正負(fù)樣本對來學(xué)習(xí)兩個樣本之間的關(guān)系。三元組損失 [3] 學(xué)習(xí)到錨點(diǎn)和正樣本之間的距離小于錨點(diǎn)和負(fù)樣本之間的距離。盡管基于度量的學(xué)習(xí)是解決驗證問題的一種直觀方法,但基于度量的學(xué)習(xí)的主要缺點(diǎn)在于數(shù)據(jù)采樣的困難。很難訓(xùn)練所有可能的對或三元組,性能在很大程度上取決于挖掘策略。
基于歐幾里德和距離的損失
Triplet loss要確保特定人的圖像
x
i
a
x_i^a
xia?(anchor)與同一個人的所有其他圖像
x
i
p
x_i^p
xip?(positive)比與任何其他人的任何圖像
x
i
n
x_i^n
xin?(negative)更接近。在圖 3 中可視化
L
t
r
i
=
∑
i
N
[
∣
∣
f
(
x
i
a
)
∣
∣
2
2
]
L_{tri}=\sum_{i}^{N} \left [||f(x_i^a)||_2^2 \right ]
Ltri?=i∑N?[∣∣f(xia?)∣∣22?]
def triplet_loss(alpha = 0.2):
def _triplet_loss(y_pred, Batch_size):
anchor, positive, negative = y_pred[:int(Batch_size)], y_pred[int(Batch_size):int(2*Batch_size)], y_pred[int(2*Batch_size):]
pos_dist = torch.sqrt(torch.sum(torch.pow(anchor - positive,2), axis=-1))
neg_dist = torch.sqrt(torch.sum(torch.pow(anchor - negative,2), axis=-1))
keep_all = (neg_dist - pos_dist < alpha).cpu().numpy().flatten()
hard_triplets = np.where(keep_all == 1)
pos_dist = pos_dist[hard_triplets]
neg_dist = neg_dist[hard_triplets]
basic_loss = pos_dist - neg_dist + alpha
loss = torch.sum(basic_loss) / torch.max(torch.tensor(1), torch.tensor(len(hard_triplets[0])))
return loss
return _triplet_loss
基于角度/余弦邊距的損失
SoftMax 損失及其變體
S
o
f
t
M
a
x
:
L
1
=
?
l
o
g
e
W
y
i
T
+
b
y
i
∑
j
=
1
N
e
W
j
T
x
i
+
b
j
SoftMax : \quad \quad \quad L_1=-log\frac{e^{W_{y_i}^{T} + b_{y_i}}} {\sum_{ j=1}^{N}e^{W_{j}^{T}x_i+b_j} }
SoftMax:L1?=?log∑j=1N?eWjT?xi?+bj?eWyi?T?+byi???
S
o
f
t
M
a
x
??
L
o
s
s
SoftMax \,\, Loss
SoftMaxLoss 做簡化,
b
i
a
s
??
b
j
=
0
??
a
n
d
??
W
j
T
x
i
=
∣
∣
W
j
∣
∣
?
∣
∣
x
i
∣
∣
?
c
o
s
θ
j
并通過
l
2
??
n
o
r
m
??
使
∣
∣
W
j
∣
∣
=
1
,
∣
∣
x
i
∣
∣
???
r
e
?
s
c
a
l
e
??
t
o
??
s
,則
bias \,\,b_j=0 \,\,and \,\,W_j^Tx_i=||W_j||·||x_i||·cos\theta_j \\ 并通過l_2\, \,norm \, \,使||W_j||=1,||x_i||\, \, \,re_-scale \,\,to \,\, \bold s,則
biasbj?=0andWjT?xi?=∣∣Wj?∣∣?∣∣xi?∣∣?cosθj?并通過l2?norm使∣∣Wj?∣∣=1,∣∣xi?∣∣re??scaletos,則
s
i
m
p
l
i
f
y
,
L
2
=
?
l
o
g
e
s
?
c
o
s
θ
y
i
e
s
?
c
o
s
θ
y
i
+
∑
j
=
1
,
j
≠
y
i
n
e
s
?
c
o
s
θ
j
\bold {simplify} , \quad \quad L_2=-log\frac{e^{s\,cos\theta_{yi}}} {e^{s\,cos\theta_{yi}}+\sum_{ j=1,j≠y_i}^{n}e^{s\,cos\theta_j} }
simplify,L2?=?logescosθyi?+∑j=1,j=yi?n?escosθj?escosθyi??
特征和權(quán)重的歸一化步驟使預(yù)測僅取決于特征和權(quán)重之間的角度。因此,學(xué)習(xí)到的嵌入特征分布在半徑為 s 的超球面上。
由于嵌入特征分布在超球體上的每個特征中心周圍,在 x i x_i xi?和 W y i W_{yi} Wyi? 之間采用加性角邊緣懲罰 a d d i t i v e ?? a n g u l a r ?? m a r g i n ?? p e n a l t y ?? m additive \,\, angular \,\, margin\,\, penalty\,\,m additiveangularmarginpenaltym 來同時增強(qiáng)類內(nèi)緊湊性和類間差異,則
A r c F a c e ? L o s s , L 3 = ? l o g e s ? c o s ( θ y i + m ) e s ? c o s ( θ y i + m ) + ∑ j = 1 , j ≠ y i n e s ? c o s θ j ArcFace\,Loss,\quad \quad L_3=-log\frac{e^{s\,cos(\theta_{yi}+m)}} {e^{s\,cos(\theta_{yi}+m)}+\sum_{ j=1,j≠y_i}^{n}e^{s\,cos\theta_j} } ArcFaceLoss,L3?=?logescos(θyi?+m)+∑j=1,j=yi?n?escosθj?escos(θyi?+m)?文章來源:http://www.zghlxwxcb.cn/news/detail-763760.html
評價指標(biāo):
A
c
c
=
T
A
+
T
R
T
A
+
T
R
+
F
R
+
F
A
T
A
R
(
T
r
u
e
A
c
c
e
p
t
R
a
t
e
)
=
T
A
T
A
+
F
R
F
A
R
(
F
a
l
s
e
A
c
c
e
p
t
R
a
t
e
)
=
F
A
F
A
+
T
R
F
R
R
(
F
a
l
s
e
R
e
j
e
c
t
R
a
t
e
)
F
R
T
R
+
F
R
\bold {Acc}= \frac{TA+TR}{TA+TR+FR+FA} \\ \bold{TAR}(True Accept Rate)= \frac{TA}{TA+FR} \\ FAR(False Accept Rate)= \frac{FA}{FA+TR} \\ \\FRR(False Reject Rate) \frac{FR}{TR+FR}
Acc=TA+TR+FR+FATA+TR?TAR(TrueAcceptRate)=TA+FRTA?FAR(FalseAcceptRate)=FA+TRFA?FRR(FalseRejectRate)TR+FRFR?文章來源地址http://www.zghlxwxcb.cn/news/detail-763760.html
一級標(biāo)題
二級標(biāo)題
二級標(biāo)題
二級標(biāo)題
到了這里,關(guān)于人臉識別 Face Recognition 入門的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!