機器學習十講(三)分門別類,各得其所 分類

2022-06-09 02:45:09 字數 1226 閱讀 5091

1.數學知識回顧:

點到平面的距離:

2.梯度下降法:

3.隨機梯度下降l(

w)=∑

i=1n

l(yi

,f(x

i;w)

)∇l(

w)=∑

i=1n

∇l(y

i,f(

xi;w

))=∑

i=1n

∇li(

w)'>l(w)=∑i=1nl(yi,f(xi;w))∇l(w)=∑i=1n∇l(yi,f(xi;w))=∑i=1n∇li(w)

l(w)=∑i=1nl(yi,f(xi;w))∇l(w)=∑i=1n∇l(yi,f(xi;w))=∑i=1n∇li(w)w(

t+1)

←w(t

)−ηt

∇li(

w(t)

)'>w(t+1)←w(t)−ηt∇li(w(t))

w(t+1)←w(t)−ηt∇li(w(t))

4.最大似然估計l(

θ)=∏

θm(1

−θ)n

nll(

θ)=−

mlog

θ−nl

og(1

−θ)d

nll(

θ)dθ

=−mθ

+n1−

θ,可得

θ=mm

+n'>dnll(θ)

l(θ)=∏θm(1−θ)nnll(θ)=−mlogθ−nlog(1−θ)dnll(θ)dθ=−mθ+n1−θ,可得θ=mm+n

5.如何做分類

6.感知機、支援向量機和邏輯回歸

支援向量機:

邏輯回歸:

7.感知機y=

h(f(

x))=

'>y∈

y∈,則樣本(xi

,yi)

'>(xi,yi)

(xi,yi)概率為:p(

yi|x

i)=1

1+e−

yiwt

xi'>p(yi|xi)=11+e−yiwtxi

p(yi|xi)=11+e−yiwtxi

機器學習十講第三講

本講開始講了梯度下降演算法和最大似然估計演算法。樣本數量 n classes 2,類別數量 n features 2,特徵數量 n informative 2,有資訊特徵數量 n redundant 0,冗餘特徵數量 n repeated 0,重複特徵數量 n clusters per class ...

機器學習十講01

2021.1.26 概論人工智慧 機器學習 深度學習 機器學習問題 資料 聚類 分類 異常值分析 機器學習的基本方法 監督學習 1 資料集中的樣本帶有標籤,有明確目標。2 回歸和分類。無監督學習 1 資料集中的樣本沒有標籤,沒有明確目標。2 聚類 降維 排序 密度估計 關聯規則挖掘 強化學習 介於前...

機器學習十講 第一講

我們將機器學習定義為一組能夠自動檢測模式資料的方法,然後利用未發現的模式來 未來的資料,或者在不確定的情況下執行各種決策 例如計畫如何收集更多的資料 模型和計算能力 深度學習 gpu 分布式系統 廣泛的應用場景 營銷 廣告 金融 交通 醫療等 是指資料採集 資料清洗 資料分析和資料應用的整個流程中的...