人臉對比的loss

2021-10-17 12:24:28 字數 1007 閱讀 8844

感謝我的同事@徐樺所作的工作

早期的人臉識別的loss主要是以contrastive loss 和tripletloss為主,但隨著資料集的增大,需要複雜的資料對構造策略,否則搜尋空間是o(n

2o(n2)和o (n

3)o(n3

),效果明顯不如softmax系列

softmax with loss 是一種常見的分類loss,優點是:擅長類間競爭,凸顯正確標籤與錯誤標籤的差異。

缺點:對類內差異的表徵差,學到的特徵較為鬆散,一般用於人臉loss時,會將bias項置為零

假設是乙個十個分類問題,那麼每個類都會對應乙個權值向量w0,

w1,w

....

.w9w_0,w_1,w_.....w_9

w0​,w1

​,w.

​...

.w9​

,某個特徵f會被分為哪一類,取決於和哪乙個權值向量的內積最大。模型固定後,權重w

ww固定,因此f

ff與w

ww的內積只取決於它們的家教,故特徵呈輻射裝分布,在推理時f

1f_1

f1​和f

2f_2

f2​是否相似由它們的歐式距離決定,但由於模長差異巨大,常常有如圖的結果

center loss是最早開始修正softmax loss的工作,簡單地在softmax的基礎上增加了乙個與類中心距離的正則項,粗暴地拉近了類內距離

但乘性margin存在乙個很大的問題是,本身這類間距較小,margin也較小,比較難處理一些難例

人臉識別的LOSS(多分類Softamx)

早期深度人臉識別方法,框架為cnn softmax,以 超多分類 這樣一種比較難的任務訓練cnn,強迫網路在第乙個fc層形成比較緊湊的,判別力很強的深度人臉特徵,之後用於人臉識別。softmax是soft 軟化 的max。在cnn的分類問題中,我們的ground truth是one hot形式,下面...

人臉識別常用資料集和Loss

資料集的noise對訓練效果的影響很大!很長一段時間megaface的效果都上不去,就是因為資料集雜訊的原因。而且自己在訓練人臉的時候,如果不對資料集的雜訊和屬性有一點了解,對訓練結果可能會有誤判,甚至越訓練越差 在選擇資料集的時候不要一味求大,有的時候選擇乙個noise比例極高的大資料集,效果還不...

人臉檢測的效能對比

no1 protopath os.path.sep.join args detector deploy.prototxt modelpath os.path.sep.join args detector res10 300x300 ssd iter 140000.caffemodel net cv2...