深度學習識點複習 鞍點

2021-09-17 19:34:39 字數 718 閱讀 4930

討論尋找凸路徑時可能會遇到的臨界點。

1 臨界點型別:

為了最小化函式

當梯度等於0的時候,該點為臨界點,也就是區域性最優解,對於強凸函式,也就是全域性最小點。

對於非凸函式,例如

為了區分這種情況,需要考慮二階導數,

2 如何優化演算法避開鞍點:

因為大多數自然目標函式都有指數級的鞍點。

許多學習問題都可以被抽象為尋找k 個不同的分量(比如特徵,中心)。例如在聚類問題中,有n個點,我們要尋找k個簇,使得各個點離它們最近的簇的距離之和最小,又如在乙個兩層的神經網路中,我們試圖在中間尋找乙個含有k個不同神經元的網路。

最流行的方法是設計乙個目標函式: 設x1,x2,...,xk

3 避開鞍點

3.1 優化函式在鞍點處也要向最優解前進,最簡單的方法是二階泰勒展開式。

3.2 一階方法避開鞍點: 一階導數在鞍點為0,非常不穩定,為了 形式化這種直覺,我們嘗試使用乙個帶有雜訊嗯但梯度下降法,

這裡的計算雜訊梯度通常比計算真正的梯度更加省時,雜訊並不會干擾凸優化的收斂,反而有助於收斂。

3.3 複雜鞍點:

非凸函式的外形更加複雜,含有退化鞍點(hessian 矩陣是半正定的,有0 特徵值,這種退化結構往往展示了乙個更為複雜的鞍點)

提出了一種演算法可以處理這些退化的鞍點。

深度學習複習

1.深度學習的那些大牛們 2.全連線網路 第4章 需要掌握的知識 重點 ppt week08神經網路入門.pdf 或 python神經網路程式設計高畫質版.pdf 前向傳播過程 在神經網路中,資訊從上乙個神經元直接流轉到下乙個神經元,直到輸出,依據每乙個神經元的輸入並根據相應規則可以計算出輸出,最終...

《動手學深度學習》 深度學習基礎複習

交叉熵只關心對正確類別的 概率,因為只要其值足夠大,就可以確保分類結果正確,而平方損失則過於嚴格,例如y i 1 y i 2 0比y i 1 0,y i 2 0.4的損失要小很多,雖然兩者都有同樣正確的分類 結果。正則化通過為模型損失函式新增懲罰項使學出的模型引數值較小,是應對過擬合的常用手段。權重...

點雲深度學習

參考部落格 研究背景 我們周圍的世界是三維,三維研究可以讓機器更好地感知周圍環境。有效的三維特徵表示是實現點雲配準 三維模型重建 三維形狀檢索 場景語義分割等視覺任務的基礎。三維資料表示 point cloud polygonal meshes volumetric multi view image...