谷歌機器學習速成課程 3降低損失 迭代方法

2022-08-20 11:36:11 字數 1105 閱讀 3516

迭代學習可能會讓您想到「hot and cold」這種尋找隱藏物品(如頂針)的兒童遊戲。在我們的遊戲中,「隱藏的物品」就是最佳模型。剛開始,您會胡亂猜測(「w

1'>w1 的值為 0。」),等待系統告訴您損失是多少。然後,您再嘗試另一種猜測(「w

1'>w1 的值為 0.5。」),看看損失是多少。哎呀,這次更接近目標了。實際上,如果您以正確方式玩這個遊戲,通常會越來越接近目標。這個遊戲真正棘手的地方在於盡可能高效地找到最佳模型。

下圖顯示了機器學習演算法用於訓練模型的迭代試錯過程:

圖 1. 用於訓練模型的迭代方法。

我們將在整個機器學習速成課程中使用相同的迭代方法詳細說明各種複雜情況,尤其是處於暴風雨中的藍雲區域。迭代策略在機器學習中的應用非常普遍,這主要是因為它們可以很好地擴充套件到大型資料集。

「模型」部分將乙個或多個特徵作為輸入,然後返回乙個** (y') 作為輸出。為了進行簡化,不妨考慮一種採用乙個特徵並返回乙個**的模型:y′

=b+w

1x1'>y′=b+w1x1

我們應該為 b

'>b 和 w

1'>w1 設定哪些初始值?對於線性回歸問題,事實證明初始值並不重要。我們可以隨機選擇值,不過我們還是選擇採用以下這些無關緊要的值:

假設第乙個特徵值是 10。將該特徵值代入**函式會得到以下結果:

y' = 0 + 0(10)

y'=0

圖中的「計算損失」部分是模型將要使用的損失函式。假設我們使用平方損失函式。損失函式將採用兩個輸入值:

最後,我們來看圖的「計算引數更新」部分。機器學習系統就是在此部分檢查損失函式的值,並為 b

'>b 和 w

1'>w1 生成新值。現在,假設這個神秘的綠色框會產生新值,然後機器學習系統將根據所有標籤重新評估所有特徵,為損失函式生成乙個新值,而該值又產生新的引數值。這種學習過程會持續迭代,直到該演算法發現損失可能最低的模型引數。通常,您可以不斷迭代,直到總體損失不再變化或至少變化極其緩慢為止。這時候,我們可以說該模型已收斂

機器學習速成課程MLCC(3) 如何降低損失

迭代方法 預計用時 10 分鐘 在本單元中,您將了解機器學習模型如何以迭代方式降低損失。迭代學習可能會讓您想到 hot and cold 這種尋找隱藏物品 如頂針 的兒童遊戲。在我們的遊戲中,隱藏的物品 就是最佳模型。剛開始,您會胡亂猜測 w1 的值為 0。等待系統告訴您損失是多少。然後,您再嘗試另...

機器學習 降低損失

迭代學習可能會讓您想到 hot and cold 這種尋找隱藏物品 如頂針 的兒童遊戲。在我們的遊戲中,隱藏的物品 就是最佳模型。剛開始,您會胡亂猜測 w1 的值為 0。等待系統告訴您損失是多少。然後,您再嘗試另一種猜測 w1 的值為 0.5。看看損失是多少。哎呀,這次更接近目標了。實際上,如果您以...

機器學習速成課程學習講義3

上一單元 介紹了損失的概念。在本單元中,您將了解機器學習模型如何以迭代方式降低損失。迭代學習可能會讓您想到 hot and cold 這種尋找隱藏物品 如頂針 的兒童遊戲。在我們的遊戲中,隱藏的物品 就是最佳模型。剛開始,您會胡亂猜測 w1 的值為 0。等待系統告訴您損失是多少。然後,您再嘗試另一種...