吳恩達機器學習筆記(14 大規模機器學習)

2021-09-08 19:59:45 字數 2627 閱讀 3954

主要是處理大資料集的演算法。

如果我們有一億條資料,那麼我們以邏輯回歸為例,那麼我們將會計算代價函式一億次,這是乙個很大的計算量。

首先應該做的事是去檢查乙個這麼大規模的訓練集是否真的必要,也許我們只用 1000 個訓練集也能獲得較好的效果,我們可以繪製學習曲線來幫助判斷。

如果我們一定需要乙個大規模的訓練集,我們可以嘗試使用隨機梯度下降法(sgd)來 代替批量梯度下降法。

隨機梯度下降法與批量梯度下降法不同,隨機梯度下降法不需要對全部m個樣本求和來得到梯度項,只需要對單個訓練樣本求出這個梯度項在這個過程中,我們已經開始優化引數了。所以就不用對整個訓練樣本遍歷一遍了

隨機梯度下降演算法在每一次計算之後便更新引數 ? ,而不需要首先將所有的訓練集求 和,在梯度下降演算法還沒有完成一次迭代時,隨機梯度下降演算法便已經走出了很遠。但是這 樣的演算法存在的問題是,不是每一步都是朝著」正確」的方向邁出的。因此演算法雖然會逐漸走 向全域性最小值的位置,但是可能無法站到那個最小值的那一點,而是在最小值點附近徘徊。

小批量梯度下降演算法是介於批量梯度下降演算法和隨機梯度下降演算法之間的演算法,每計算 常數?次訓練例項,便更新一次引數 ? 。

通常我們會令 ? 在 2-100 之間。這樣做的好處在於,我們可以用向量化的方式來迴圈 ?個訓練例項,如果我們用的線性代數函式庫比較好,能夠支援平行處理,那麼演算法的總體 表現將不受影響(與隨機梯度下降相同)。

現在我們介紹隨機梯度下降演算法的除錯,以及學習率 ? 的選取。

在隨機梯度下降中,我們在每一次更新 ? 之前都計算一次代價,然後每?次迭代後,求 出這?次對訓練例項計算代價的平均值,然後繪製這些平均值與?次迭代的次數之間的函式 圖表。

當我們繪製這樣的圖表時,可能會得到乙個顛簸不平但是不會明顯減少的函式影象(如 上面左下圖中藍線所示)。我們可以增加?來使得函式更加平緩,也許便能看出下降的趨勢 了(如上面左下圖中紅線所示);或者可能函式圖表仍然是顛簸不平且不下降的(如洋紅色 線所示),那麼我們的模型本身可能存在一些錯誤。

如果我們得到的曲線如上面右下方所示,不斷地上公升,那麼我們可能會需要選擇乙個較 小的學習率?。

我們也可以令學習率隨著迭代次數的增加而減小,例如令:

總結下,我們介紹了一種方法,近似地監測出隨機梯度下降演算法在最優化 代價函式中的表現,這種方法不需要定時地掃瞄整個訓練集,來算出整個樣本集的代價函式, 而是只需要每次對最後 1000 個,或者多少個樣本,求一下平均值。應用這種方法,你既可 以保證隨機梯度下降法正在正常運轉和收斂,也可以用它來調整學習速率?的大小。

假定你有乙個提供運輸服務的公司,使用者們來向你詢問把包裹從 a 地運到 b 地的服務, 同時假定你有乙個**,讓使用者們可多次登陸,然後他們告訴你,他們想從**寄出包裹, 以及包裹要寄到**去,也就是出發地與目的地,然後你的**開出運輸包裹的的服務**。 比如,我會收取$50 來運輸你的包裹,我會收取$20 之類的,然後根據你開給使用者的這個價 格,使用者有時會接受這個運輸服務,那麼這就是個正樣本,有時他們會走掉,然後他們拒絕 購買你的運輸服務,所以,讓我們假定我們想要乙個學習演算法來幫助我們,優化我們想給用 戶開出的**。

假使我們正在經營一家物流公司,每當乙個使用者詢問從地點 a 至地點 b 的快遞費用時, 我們給使用者乙個**,該使用者可能選擇接受(? = 1)或不接受(? = 0)。

現在,我們希望構建乙個模型,來**使用者接受**使用我們的物流服務的可能性。因 此** 是我們的乙個特徵,其他特徵為距離,起始地點,目標地點以及特定的使用者資料。 模型的輸出是:?(? = 1)。

一旦對乙個資料的學習完成了,我們便可以丟棄該資料,不需要再儲存它了。這種方式 的好處在於,我們的演算法可以很好的適應使用者的傾向性,演算法可以針對使用者的當前行為不斷 地更新模型以適應該使用者。

每次互動事件並不只產生乙個資料集,例如,我們一次給使用者提供 3 個物流選項,使用者 選擇 2 項,我們實際上可以獲得 3 個新的訓練例項,因而我們的演算法可以一次從 3 個例項 中學習並更新模型。

對映化簡和資料並行對於大規模機器學習問題而言是非常重要的概念。之前提到,如果 我們用批量梯度下降演算法來求解大規模資料集的最優解,我們需要對整個訓練集進行迴圈, 計算偏導數和代價,再求和,計算代價非常大。如果我們能夠將我們的資料集分配給不多台 計算機,讓每一台計算機處理資料集的乙個子集,然後我們將計所的結果彙總在求和。這樣 的方法叫做對映簡化。

具體而言,如果任何學習演算法能夠表達為,對訓練集的函式的求和,那麼便能將這個任 務分配給多台計算機(或者同一臺計算機的不同 cpu 核心),以達到加速處理的目的。

例如,我們有 400 個訓練例項,我們可以將批量梯度下降的求和任務分配給 4 臺計算機 進行處理:

吳恩達機器學習筆記 18 大規模機器學習

本章講了梯度下降的幾種方式 batch梯度下降 mini batch梯度下降 隨機梯度下降。也講解了如何利用mapreduce或者多cpu的思想加速模型的訓練。有的時候資料量會影響演算法的結果,如果樣本資料量很大,使用梯度下降優化引數時,一次調整引數需要計算全量的樣本,非常耗時。如果訓練集和驗證集的...

吳恩達機器學習筆記 18 大規模機器學習

本章講了梯度下降的幾種方式 batch梯度下降 mini batch梯度下降 隨機梯度下降。也講解了如何利用mapreduce或者多cpu的思想加速模型的訓練。有的時候資料量會影響演算法的結果,如果樣本資料量很大,使用梯度下降優化引數時,一次調整引數需要計算全量的樣本,非常耗時。如果訓練集和驗證集的...

機器學習 吳恩達 筆記 13 大規模機器學習

目錄 大型資料集的學習 批量梯度下降 隨機梯度下降 小批量梯度下降 隨機梯度下降收斂 對映化簡和資料並行 此為本人學習吳恩達的機器學習課程的筆記記錄,有錯誤請指出!如果模型演算法具有欠擬合現象,增加資料集可以得到較好的 效果,那麼怎樣應對乙個有 100 萬條記錄的訓練集?以線性回歸模型為例,每一次梯...