機器學習拐彎點

2021-09-17 02:05:13 字數 563 閱讀 3486

1.線性回歸:滿足齊次,滿足可加性

2.多項式線性回歸:變數代替法換成一元

3.驗證集誤差不能作為測試集誤差的原因?

答:驗證集選模型時,人為選最高,而測試集是自然的選擇過程,為了方便,做一次測試集誤差就代表了多次,效果都差不多

4.不對稱類資料:壞的資料少,好的資料多,為防止模型測試效果不太好,所以用測試了多少個病人,還有測的準確率,雙重標準,使得結果可信度一定可信

資料對稱:好的和壞的差不多1:1;在這種情況下測試,想要把把都對,那是真本事

資料侷限性:對於想要測試的目標結果可能性很多時,不能夠收集各種目標資料集,只能從反面做模型,模型只能測試資料集有的可能性

大規模資料:越多擬合的越好,限制點越多

5.推薦系統

在某段時間內使用資料,做出模型,每個時間段做個,具有時效性

6.支援向量機:核函式:建立新特徵?

為什麼合適,沒明白

7.影象文字識別

流程。。。滑動視窗做特徵,做切割,特徵的選擇具有功能性。

8.特徵

特徵的選擇具有功能性,特徵的選擇和輸出具體相關性

9...

題點 機器學習

在統計模式分類問題中 當先驗概率已知時,直接使用貝葉斯求後驗概率即可 當先驗概率 未知時,可以使用最小最大損失準則主要就是使用解決 最小損失規則 時先驗概率未知或難以計算的問題的 和n p 判決 聶曼 皮爾遜決策 來計算決策面。訓練神經網路模型時,如果訓練樣本較少,為了防止模型過擬合,dropout...

機器學習知識點

1.knn 不適合用來對特徵分布進行分析。2.強化學習中的mdp模型 環境狀態的集合 動作的集合 在狀態之間轉換的規則 規定轉換後 即時獎勵 的規則 描述主體能夠觀察到什麼的規則。3.otsu推到 4.繪製曲線 plt.plot hist.history loss plt.plot hist.his...

機器學習lr複習點

lr主要推導 損失函式 為何不用最小二乘法 是否要用最小二乘法取決於在所有未知數中的殘差是否為線性 最大似然 將概率密度估計問題轉化為引數估計問題,極大似然估計就是一種引數估計方法 隨機梯度下降 批量梯度下降是所有的 是在權值更新前對所有樣例彙總誤差,而隨機梯度下降的權值是通過考查某個訓練樣例來更新...