吳恩達機器學習 第十三章 支援向量機SVM

2021-09-13 07:44:09 字數 917 閱讀 2944

在監督學習中,很多監督學習演算法的效能都很相似,我們考慮的不是選哪個演算法,而是選擇演算法時所使用的資料量,這就體現了應用演算法時的技巧,比如你設計的用於學習演算法的特徵的選擇,正則化引數的選擇。

svm和神經網路、邏輯回歸相比,在學習複雜的非線性方程時能夠提供一種更為清晰的方式。

svm的總體優化目標為:

當最小化這個函式的時候,就得到了svm學習到的引數。

支援向量機不會輸出概率,我們通過svm得到的是通過優化上面的代價函式得到乙個引數θ,然後進行直接的**y是等於0還是等於1:若θ的轉置乘以x大於等於0,假設函式輸出1,反之輸出0。

svm假設函式的形式:

h θ(

x)=1 &&&&&θ>=0 \\ 0 &&&&&θ<0 \end \right.

hθ​(x)

=||θ||>=1

p(i)∣∣

θ∣∣>=1

和p (i

)∣∣θ

∣∣<=−

1p^||θ||<=-1

p(i)∣∣

θ∣∣<=−

1,p(i)

p^p(

i)也就是每個樣本在θ上的投影,我們可以看到左圖的投影都比較小,那麼為了讓乘積大於1只能讓||θ||足夠大,但是我們的目的就是為了讓||θ||足夠小,所以svm不會選擇左圖那個線。

因此為了得到最大的投影,唯一的方式就是使綠線周圍保持最大間距

,這樣就會得到右圖的那個線,也就是產生大間距分類現象。

吳恩達機器學習 第十三章個人筆記

訓練樣本沒有標籤,用聚類演算法劃分出多簇 用處 市場分割 社交網路分析 計算機集群組織 了解銀河系的構成 k均值演算法的核心步驟 假設我們要將下列樣本分為兩簇 初始化簇中心,遍歷每個樣本 將每個樣本分配給相應的簇 距離最小優先原則 對新簇的所有樣本求平均值,得到新的簇中心 重複 步驟,知道每個簇不變...

吳恩達《機器學習》第十三章 聚類

聚類演算法 k means演算法 本節問題 隨機初始化n個聚類中心 距離是歐幾里得距離 衣服尺寸的劃分有點像是無監督演算法的市場化 q 如果有乙個聚類中心,它沒有被分配到任何乙個點,怎麼辦?a 一般情況移除這個聚類中心,但是聚類中心就會從k變為k 1 如果想保持k個聚類,則在初始化這個點一次 本節目...

吳恩達機器學習筆記

為了解決實際生活中的問題,我們通常需要乙個數學模型。比如,小明有乙個房子 他想賣掉房子 為了知道房子的 小明收集了該地區近兩年的房屋交易 他發現房屋 與房屋大小呈正相關,所以他畫了了一幅圖 小明的房屋大小用紅色的 代替。可見和小明房屋一樣大小的房子並不存在,而類似的房屋 又有很大差別,如此小明決定用...