深度學習入門課程學習筆記05 最優化問題

2021-08-19 12:43:39 字數 1337 閱讀 3882

通過對之前課程的學習,我們已經能夠對於乙個輸入資料得出它的最終的乙個loss值,那麼下面就該咱們如何去找到乙個最優的引數矩陣,使得最終的loss值達到乙個最小的範圍。這就引入了咱們的最優化問題。下面咱們通過幾種解決方案來詳細討論如何處理這個最優化的問題

首先咱們就算不經過大腦思考也能得出一種方法,我把它叫做乙個簡單粗暴的想法就是咱們隨機的去找一組組的權重引數矩陣w,每一次咱們都通過整個計算流程得出這組權重計算出它的乙個loss值,就像上面的**的流程一樣,最後對比找到一組還算湊合的權重引數。這個方法咋樣呢?很蠢是吧,但是也是一種辦法。下面咱們就該進入思考就行改進了!

我在這裡先給大家做乙個比較形象的比喻,為了尋找最優的w引數矩陣,咱們就像蒙著眼鏡在乙個山坡上尋找山坡的最低點一樣,這個山坡咱們可以把它當成loss值的山峰,咱們的目的就是能夠找到乙個山峰的最低點也就是loss值最小的那個點。那麼咱們該怎麼走才能使得咱們朝著乙個loss值下降的方向呢?我們可以想象一下,咱們要找到山坡的最低點需要乙個方向,也就是說咱們首先需要得出乙個明確的方向,這個方向能夠使得咱們朝著山坡下面走去尋找最低點。那麼咱們該如何得出這個方向呢?

這就是咱們這節課的核心也就是最優化問題的解法,跟隨梯度去尋找山坡的最低點。梯度也就是山坡的乙個最陡峭的方向,我們沿著這個最陡峭的方向可以最快的走到山坡的最低點,這裡就引入了咱們這個梯度下降的問題,什麼叫梯度下降呢?它的意思簡單的說就是咱們不是已經找到最陡峭的方向了嘛,那麼咱們就沿著梯度的反方向去走,這就是梯度下降的直觀表達。之所以要反向就是由於咱們的梯度方向是使得loss值增加幅度最大的方向,所以咱們為了loss能減少就要朝著梯度下降的方向去尋找最小點。

咱們接下來要講的就是這個學習率了,咱們現在已經找到了乙個要往下走的方向了,就差乙個走的距離了。學習率就是咱們一次沿著這個梯度下降的方向走多遠,這個學習率可以說對於咱們整個最優化問題起著決定性的作用,因為如果學習率太大我們有可能有跳過最低點而學習率太小又會使得咱們整個網路收斂的太慢。所以設定學習率還是很有學問的,這裡咱們這是引入這個知識點,在之後的神經網路中咱們會再詳細討論學習率這個問題的!

深度學習入門課程筆記05 最優化問題

通過對之前課程的學習,我們已經能夠對於乙個輸入資料得出它的最終的乙個loss值,那麼下面就該咱們如何去找到乙個最優的引數矩陣,使得最終的loss值達到乙個最小的範圍。這就引入了咱們的最優化問題。下面咱們通過幾種解決方案來詳細討論如何處理這個最優化的問題 首先咱們就算不經過大腦思考也能得出一種方法,我...

深度學習入門課程學習筆記01 概述

首先就由乙隻小貓帶咱們走進深度學習的世界吧!對於乙個輸入樣本來說,深度學習和機器學習有著相同的目的,就是要把這個樣本進行最準確的分類。咱們從肉眼看很容易這是乙隻貓,因為我們有著這麼多年的積累常識嘛!但是計算機可不這麼聰明一眼就能看得出來,在計算機中,乙個影象是由畫素點所構成的。這裡可能有同學對於計算...

深度學習入門課程筆記01 概述

首先就由乙隻小貓帶咱們走進深度學習的世界吧!對於乙個輸入樣本來說,深度學習和機器學習有著相同的目的,就是要把這個樣本進行最準確的分類。咱們從肉眼看很容易這是乙隻貓,因為我們有著這麼多年的積累常識嘛!但是計算機可不這麼聰明一眼就能看得出來,在計算機中,乙個影象是由畫素點所構成的。這裡可能有同學對於計算...