強化學習 進化演算法 貝葉斯優化 本質

2021-09-23 23:58:18 字數 608 閱讀 4374

強化學習(rl):序列決策  

本質:     根據實際情況不斷改變方法以達到最優解吧

出現原因:

1)增量式的引數更新(incremental parameter adjustment)  ,從輸入到輸出,有梯度下降完成(增量小,學習過程緩慢(每個增量都需要非常小,才不至於讓新學到的資訊,把之前學到的經驗覆蓋了 (這叫做「災難性干擾」) ))

drl解決方案: 加入rnn時許思想,從過去的事件裡學到的資訊,都可以立刻派上用場

2)弱歸納偏置(weak inductive bias) ,任何學習過程,都要面臨「偏見-方差權衡」。

給乙個定量(偏見),ai快速得到結惡果 

drl解決方案:借鑑過去的經驗,給乙個狹窄的範圍

進化演算法:

fitness函式的值,往往就是我們想要的最終結果了,迭代其實只是為了去在函式空間中採點,去搜尋逼近最優的那個值的點

區別:強化學習迭代雖然同樣也是為了去在函式空間中取樣,但卻是為了逼近乙個累計的最優值。因此關注時許的累積

貝葉斯優化:

利用先驗知識逼近未知目標函式的後驗分布,關注各種超引數

機器學習(3) 貝葉斯演算法

貝葉斯定理是18世紀英國數學家托馬斯 貝葉斯 thomas bayes 提出得重要概率論理論。以下摘一段 wikipedia 上的簡介 所謂的貝葉斯定理源於他生前為解決乙個 逆概 問題寫的一篇文章,而這篇文章是在他死後才由他的一位朋友發表出來的。在貝葉斯寫這篇文章之前,人們已經能夠計算 正向概率 如...

機器學習演算法 樸素貝葉斯

樸素貝葉斯 na ve bayes 屬於監督學習演算法,實現簡單,學習效率高 由於建立在貝葉斯理論之上,涉及到統計學方法,所以在大樣本量下會有較好的表現,當然樣本需要在一定程度上反映真實分布情況。該演算法的一條假設為 輸入的特徵向量的各分量之間兩兩條件獨立。因為這條假設比較嚴格,能夠完全符合該假設的...

機器學習基礎演算法 樸素貝葉斯

1 為什麼可以使用bayes對未知資料進行分類 首先要了解bayes的概率 條件概率,以及將條件概率應用到分類中 bayes的概率是乙個逆向概率,詳細內容檢視bayestheory.md 可以使用bayes主要是因為在知道某個條件的基礎上,可以反推某一事件發生的概率 在機器學習中使用的樣本資料就是我...