學習筆記 深度學習篇 superpoint

2021-10-25 10:19:39 字數 699 閱讀 5402

superpoint

superpoint **詳解

深度學習用於特徵提取 : superpoint網路

筆記: superpoint: self supervised interest point detection and description 深度學習特徵點檢測

*《superpoint:self-supervised interest point detection and description》筆記

[**解讀]superpoint**解讀

superpoint學習—demo**理解

1.整個訓練分為magicpoint和superpoint的訓練。

其中superpoint的自訓練的自監督方法,就需要借助magicpoint實現。

1)特徵點訓練

首先需要確定自訓練的真值。這個真值是通過現將ms-coco進行單應性變換,隨後將變換後的影象在magicpoint框架中訓練得到特徵點heatmap,累加heatap得到最終heatmap,使用閾值擷取獲得每個位置上的特徵點,作為真值。

隨後就可以magicpoint得到的真值進行訓練。

2)描述子訓練

描述子的真值不易確定,因此這裡採用loss進行優化。

首先對原始影象進行warp,由於已知warp前後特徵點的對應關係,可以對對應點求loss,優化使匹配點間的距離小,非匹配點間距離大,即可獲得描述子真值。

深度學習學習筆記

神經網路的隱含層越多 模型引數越多,模型擬合能力更強,同時訓練的難度也會增加。減少模型引數的方法有兩種 逐層訓練和權重共享。權重共享思路是現有深度學習的基礎,它大大減少了模型的引數。深度學習並不需要很多的人工特徵工程,利用其強大的建模能力來代替,整個訓練的過程是端到端的過程 end to end 其...

深度學習筆記

在深度神經網路中,通常使用一種叫修正線性單元 rectified linear unit,relu 作為神經元的啟用函式。relu函式其實是分段線性函式,把所有的負值都變為0,而正值不變,這種操作被成為單側抑制。可別小看這個簡單的操作,正因為有了這單側抑制,才使得神經網路中的神經元也具有了稀疏啟用性...

深度學習筆記

如果沒有啟用函式,或則是線性啟用函式,g z z,那麼在深度神經網路中,相當於都做的是線性變換,多個線性變換的組合還是線性變換。這樣的結果和邏輯回歸沒什麼區別,也就是說,這種情況下,無論神經網路的深度有多深,也就等價於乙個一層的網路,隱藏層沒什麼作用。因此需要非線性啟用函式。1.什麼時候插入,ski...