機器學習學習筆記1(Ng課程cs229)

2021-08-29 18:39:49 字數 2681 閱讀 8521

作為機器學習領域的先驅,arthur samuel在 ibm journal of research and development期刊上發表了一篇名為《some studies in machine learning using the game of checkers》的**中,將機器學習非正式定義為:」在不直接針對問題進行程式設計的情況下,賦予計算機學習能力的乙個研究領域。」

tom mitchell在他的《machine learning(中文版:電腦科學叢書:機器學習 )》一書的序言開場白中給出了乙個定義:

「機器學習這門學科所關注的問題是:電腦程式如何隨著經驗積累自動提高效能。」

「對於某類任務t和效能度量p,如果乙個電腦程式在t上以p衡量的效能隨著經驗e而自我完善,那麼我們稱這個電腦程式在從經驗e學習。」

他沒有告訴機器應該怎麼下棋,機器可以自己不斷學習如何下棋,因此把這一過程帶入到定義中,我們知道:

e:機器不斷下棋的經歷 t:下棋 p:下棋的勝率

有標準答案(有標籤)

沒有標準答案(無標籤)

你在訓練乙隻狗,每次狗做了一些你滿意的事情,你就說一聲「good boy」 然後獎勵它。每次狗做了something bad 你就說 "bad dog ",漸漸的,狗學會了做正確的事情來獲取獎勵。

強化學習與其他機器學習不同之處為:

m => training examples 訓練資料數目

x => input variables/features 輸入變數

y => output/target variable

(x, y) => training example

theta => parameters

training set

|learning algorithm

|input -> h(hypothesis) -> output

回歸分析(regression analysis)是確定兩種或兩種以上變數間相互依賴的定量關係的一種統計分析方法。在回歸分析中,只包括乙個自變數和乙個因變數,且二者的關係可用一條直線近似表示,這種回歸分析稱為一元線性回歸分析。

舉個例子:可以根據房子的平公尺數來估算房價

一元線性方程公式:hθ(x) = θ0 + θ1x,可以用作擬合函式

如何求解擬合函式可以使用最小二乘法,所謂最小二乘,其實也可以叫做最小平方和。就是讓目標物件和擬合物件的誤差最小。即通過最小化誤差的平方和,使得擬合物件無限接近目標物件,這就是最小二乘的核心思想。所以把擬合值和實際值的差求平方和,可以得到損失函式,最小化損失函式可以得到

步長選擇:步長過小—收斂太慢 步長過大—無法收斂

批量梯度下降(batch gradient descent )

全域性最優,資料量太大無法計算

隨機梯度下降(stochastic gradient descent)

適合於低精度的任務

兩種方法比較:

首先我們來看乙個線性回歸的問題,在下面的例子中,我們選取不同維度的特徵來對我們的資料進行擬合。

對於上面三個影象做如下解釋:

選取乙個特徵x,y = θ0 + θ1x 來擬合資料,可以看出來擬合情況並不是很好,有些資料誤差還是比較大。

針對第乙個,我們增加了額外的特徵 x2, y = θ0 + θ1x + θ2x2 ,這時我們可以看出情況就好了很多。

這個時候可能有疑問,是不是特徵選取的越多越好,維度越高越好呢?所以針對這個疑問,如最右邊圖,我們用5揭多項式使得資料點都在同一條曲線上,為

。此時它對於訓練集來說做到了很好的擬合效果,但是,我們不認為它是乙個好的假設,因為它不能夠做到更好的**。

針對上面的分析,我們認為第二個是乙個很好的假設,而第乙個圖我們稱之為欠擬合(underfitting),而最右邊的情況我們稱之為過擬合(overfitting)

對於線性回歸演算法,一旦擬合出適合訓練資料的引數θi』s,儲存這些引數θi』s,對於之後的**,不需要再使用原始訓練資料集,所以是引數學習演算法。

對於區域性加權線性回歸演算法,每次進行**都需要全部的訓練資料(每次進行的**得到不同的引數θi』s),沒有固定的引數θi』s,所以是非引數演算法。

對於上述公式的理解是這樣的:x為某個**點,x^((i))為樣本點,樣本點距離**點越近,貢獻的誤差越大(權值越大),越遠則貢獻的誤差越小(權值越小)。關於**點的選取,在我的**中取的是樣本點。其中k是頻寬引數,控制w(鐘形函式)的寬窄程度,類似於高斯函式的標準差。

機器學習 cs229學習筆記1

all is based on the stanford open course cs229.lecture 11.regularization 正規化 防止過擬合 保留所有的引數 貝葉斯學習方法 增加先驗概率,常用為高斯分布n 0,使演算法更傾向於選擇更小的引數 體現在最大似然估計上就是增加懲罰專...

機器學習課程 筆記

在alphago血虐人類 和 最強大腦小度精彩表現的刺激下,後知後覺的對人工智慧產生了濃厚的興趣。看了一些相關的介紹和 感覺還是要從基礎學起。出於對大名鼎鼎的andrew老師的膜拜,開始學習他講的機器學習課程。根據自己的理解和老師的講義整理一些筆記,方便自己鞏固和學習。文中會有很多不準確或不通順的理...

李巨集毅機器學習課程筆記 1

機器學習 自動找函式 f input output 1.regression 輸出是乙個數值 2.classification 分類 二分類 多分類 rnn 迴圈神經網路 cnn 卷積神經網路translation 繪二次元圖4.supervised learning 監督學習labeled dat...