經典機器學習演算法

2022-03-14 12:42:49 字數 522 閱讀 3141

舉個在 nlp 的應用:給一段文字,返回情感分類,這段文字的態度是positive,還是negative:

圖6-1 問題案例

為了解決這個問題,可以只看其中的一些單詞:

這段文字,將僅由一些單詞和它們的計數代表:

原始問題是:給你一句話,它屬於哪一類 ?通過bayes rules變成乙個比較簡單容易求得的問題:

問題變成,這一類中這句話出現的概率是多少,當然,別忘了公式裡的另外兩個概率。例子:單詞「love」在positive的情況下出現的概率是 0.1,在negative的情況下出現的概率是0.001。

圖6-2 nb演算法結果展示圖

給乙個新的資料時,離它最近的 k 個點中,哪個類別多,這個資料就屬於哪一類。

例子:要區分「貓」和「狗」,通過「claws」和「sound」兩個feature來判斷的話,圓形和三角形是已知分類的了,那麼這個「star」代表的是哪一類呢?

圖7-1 問題案例

k=3時,這三條線鏈結的點就是最近的三個點,那麼圓形多一些,所以這個star就是屬於貓。

機器學習經典演算法

函式名稱均為sklearn庫中的函式 1.線性回歸演算法 linearregression 其中常用的有 ridge 嶺回歸演算法,multitasklasso 多工lasso回歸演算法,elasticnet 彈性網眼演算法,lassolars lars套索演算法,orthogonalmatchin...

機器學習經典演算法筆記 KNN

這裡面涉及到一些演算法實現的包,比如得到的每個點,求距離後怎麼處理的問題。前面求歐氏距離就不贅述了,這裡主要是補充一點求出結果後怎麼處理的問題 nearest np.argsort distances 這裡對每個距離進行排列,得出index 假設k 6的話 topx y train i for i ...

機器學習經典演算法筆記 梯度下降演算法

本文推薦乙個更好的版本理解 梯度下降,下面的 選自本文 這大概是我見過最好理解的乙個版本 梯度下降的場景假設 梯度梯度下降演算法的數學解釋 梯度下降演算法的例項 梯度下降演算法的實現 further reading 代價函式 j 12 m x y t x y j theta frac x theta...