李巨集毅機器學習2 P4 P7

2021-09-22 17:57:28 字數 1254 閱讀 9044

學習鞍點,複習上次任務學習的全域性最優和區域性最優

梯度下降

學習交叉驗證

學習歸一化

學習回歸模型評價指標

做的匆忙,我後面日子還要繼續改

bias 偏差 :模型的期望(或平均)**和正確值之間的差別;

variance 方差 :模型之間的多個擬合**之間的偏離程度。

過擬合對應的是bias很小,variance很大

欠擬合對應的是bias很大,viraiance很小

動量(momentum),動量法不僅使用當前的梯度,同時還利用之前的梯度提供的資訊。

mini-batch是部分資料參與引數的更新,sgd是乙個資料參與引數的更新,都是梯度下降演算法。

資料的不同,batch是全部的資料,mini-batch是部分資料,sgd梯度下降是單個資料

如果訓練樣本的大小,比如m

⩽200

m\leqslant200

m⩽20

0時,選擇batch梯度下降法

如果訓練樣本的大小比較大,選擇mini-batch梯度下降法

n_epochs = 50

t0, t1 = 5, 50

def learning_schedule(t):

return t0 / (t + t1)

theta = np.random.randn(2,1)

for epoch in range(n_epochs):

for i in range(m):

random_index = np.random.randint(m)

xi = x_b[random_index:random_index+1]

yi = y[random_index:random_index+1]

gradients = 2 * xi.t.dot(xi.dot(theta) - yi)

eta = learning_schedule(epoch * m + i)

theta = theta - eta * gradients

資料不夠的時候,我們會按照劃分為n份,隨機選出(n-1)份來做訓練集,乙份作為驗證集,重複n次。以此得到評估指標

每個特徵的的量綱不一樣,如果不進行歸一化,會出現量綱大影響大,量綱小影響小。

有準確率,召回率、精準率、f1_score,auc。

機器學習筆記P1 李巨集毅2019

該部落格將介紹機器學習課程by李巨集毅的前兩個章節 概述和回歸。視屏鏈結1 introduction 視屏鏈結2 regression 該課程將要介紹的內容如下所示 從最左上角開始看 regression 回歸 輸出的目標是乙個數值。如 明天的pm2.5數值。接下來是classification 分...

《李巨集毅機器學習》task7

熵是用來衡量乙個系統混論程度的物理量,代表乙個系統中蘊含多少資訊量,資訊量越大表明乙個系統不確定性就越大,就存在越多的可能性。演算法支援模型 樹結構特徵選擇 連續值處理 缺失值處理 剪枝id3 分類多叉樹 資訊增益 不支援不支援 不支援c4.5 分類多叉樹 資訊增益比 支援支援 支援cart 分類 ...

李巨集毅機器學習課程總結 4

卷積神經網路是深度學習網路中的一種,被廣泛應用在影像處理中。其實對於影象處理方面的問題,使用全連線前饋網路也能實現近似的效果,但是cnn較全連線前饋網路更進一步簡化了神經網路的構架,是人們通過影象處理的特徵和總結出來的經驗進行簡化的,具體特徵是 有一些紋理比整張小得多,某些紋理並不需要看整張就能夠被...