無約束非線性優化經典演算法學習筆記

2021-08-03 14:19:51 字數 810 閱讀 3645

本部落格僅為學習筆記。

有函式x(θ

) ,梯度下降法的迭代公式為: xk

+1=x

k−ag

k 其中g

k 為x(

θ)在x_k點的導數。

當x為標量時 xk

+1=x

k−x′

x′′當x為向量時: xk

+1=x

k−h−

1kgk

其中 h−

1 為 hession矩陣的逆函式,g為一階導數向量。

在牛頓法中,每次都需要求h−

1k, 每次求二階導數,再求逆矩陣這個計算量是很大的。所以有人考慮使用迭代計算的方法計算每乙個h−

1k, 令 bk

=h−1

k 找出乙個公式 ,使得 bk

+1=b

k+δ

求出這個迭代用的δ 。

優化演算法 無約束優化

無約束優化問題可以表示為 min l theta 其中目標函式 l cdot 是光滑的。如何針對不同的目標函式,不同的應用場景求解乙個無約束優化問題是機器學習領域的關注點。經典的優化演算法可以分為直接法和迭代法兩大類。直接法,就是能夠直接給出優化問題的最優解的方法,這種方法能夠通過乙個解析式直接求出...

一維無約束優化演算法 進退法

function minx,maxx minjt f,x0,h0 進退法求極值區間 2011 5 14 目標函式 f 初始點x0 初始步長h0 format long x1 x0 k 0 h h0 while 1 x4 x1 h k k 1 f4 subs f,findsym f x4 f1 sub...

學習筆記 矩陣微分 無約束最優化

在學習張賢達老師的 矩陣分析與應用 時,遇到了矩陣求導這一問題。之前從來沒接觸過這一概念,閱讀資料也是花費了不少時間,因此將學習的筆記總結到這裡,方便日後溫習。圖1是目錄中第五章的部分內容,因為本人目前在研究無約束最優化的問題,故只選取了前三節進行學習閱讀。圖1 無約束最優化目錄 首先考慮乙個最簡單...