題點 機器學習

2021-07-31 04:15:00 字數 443 閱讀 3150

在統計模式分類問題中:

當先驗概率已知時,直接使用貝葉斯求後驗概率即可;

當先驗概率

未知時,可以使用最小最大損失準則主要就是使用解決

最小損失規則

時先驗概率未知或難以計算的問題的

和n-p

判決(聶曼-

皮爾遜決策

來計算決策面。)

訓練神經網路模型時,如果訓練樣本較少,為了防止模型過擬合,

dropout

可以作為一種選擇。

dropout

是指在模型訓練時隨機讓網路某些隱含層節點的權重不工作,不工作的那些節點可以暫時認為不是網路結構的一部分,但是它的權重得保留下來(只是暫時不更新而已),因為下次樣本輸入時它可能又得工作了(有點抽象,具體實現看後面的實驗部分)。

機器學習拐彎點

1.線性回歸 滿足齊次,滿足可加性 2.多項式線性回歸 變數代替法換成一元 3.驗證集誤差不能作為測試集誤差的原因?答 驗證集選模型時,人為選最高,而測試集是自然的選擇過程,為了方便,做一次測試集誤差就代表了多次,效果都差不多 4.不對稱類資料 壞的資料少,好的資料多,為防止模型測試效果不太好,所以...

機器學習知識點

1.knn 不適合用來對特徵分布進行分析。2.強化學習中的mdp模型 環境狀態的集合 動作的集合 在狀態之間轉換的規則 規定轉換後 即時獎勵 的規則 描述主體能夠觀察到什麼的規則。3.otsu推到 4.繪製曲線 plt.plot hist.history loss plt.plot hist.his...

機器學習lr複習點

lr主要推導 損失函式 為何不用最小二乘法 是否要用最小二乘法取決於在所有未知數中的殘差是否為線性 最大似然 將概率密度估計問題轉化為引數估計問題,極大似然估計就是一種引數估計方法 隨機梯度下降 批量梯度下降是所有的 是在權值更新前對所有樣例彙總誤差,而隨機梯度下降的權值是通過考查某個訓練樣例來更新...