機器學習有關分類的演算法

2022-08-30 00:03:23 字數 1650 閱讀 1289

有關智慧型優化演算法:

參考學習:

0>梯度下降

1>進化類演算法

遺傳演算法

差分進化演算法

免疫演算法

2>群智慧型演算法

粒子群(pso)

蟻群(aco)

3>模擬退火演算法

4>禁忌搜尋演算法

5>網格搜尋法 分離間隔優化

參考學習:

有關分類演算法:

決策樹:

1.複雜的情況下也是一樣,對於每乙個特徵,找到乙個使得gini值最小的分割點(這個分割點可以是》,<,>=這樣的判斷,也可以是=,!=),然後比較每個特徵之間最小的gini值,作為當前最優的特徵的最優分割點(這實際上涉及到了兩個步驟,選擇最優特徵以及選擇最優分割點)。

2.在第一步完成後,會生成兩個葉節點,我們對這兩個葉節點做判斷,計算它的gini值是否足夠小(若是,就將其作為葉子不再分類)

3.將上步得到的葉節點作為新的集合,進行步驟1的分類,延伸出兩個新的葉子節點(當然此時該節點變成了父節點)

4.迴圈迭代至不再有gini值不符合標準的葉節點、

隨機森林:

鑑於決策樹容易過擬合的缺點,隨機森林採用多個決策樹的投票機制來改善決策樹,我們假設隨機森林使用了m棵決策樹,那麼就需要產生m個一定數量的樣本集來訓練每一棵樹,如果用全樣本去訓練m棵決策樹顯然是不可取的,全樣本訓練忽視了區域性樣本的規律,對於模型的泛化能力是有害的

貝葉斯分類·

設每個資料樣本用乙個n維特徵向量來描述n個屬性的值,即:x=,假定有m個類,分別用c1, c2,…,cm表示。給定乙個未知的資料樣本x(即沒有類標號),若樸素貝葉斯分類法將未知的樣本x分配給類ci,則一定是

p(ci|x)>p(cj|x) 1≤j≤m,j≠i 根據貝葉斯定理

由於p(x)對於所有類為常數,最大化後驗概率p(ci|x)可轉化為最大化先驗概率p(x|ci)p(ci)。如果訓練資料集有許多屬性和元組,計算p(x|ci)的開銷可能非常大,為此,通常假設各屬性的取值互相獨立,這樣

先驗概率p(x1|ci),p(x2|ci),…,p(xn|ci)可以從訓練資料集求得。

根據此方法,對乙個未知類別的樣本x,可以先分別計算出x屬於每乙個類別ci的概率p(x|ci)p(ci),然後選擇其中概率最大的類別作為其類別。

樸素貝葉斯演算法成立的前提是各屬性之間互相獨立。當資料集滿足這種獨立性假設時,分類的準確度較高,否則可能較低。另外,該演算法沒有分類規則輸出。

knn:

根據鄰近樣本決定測試樣本的類別。

kmeans:

kmeans的計算方法如下:

1 隨機選取k個中心點

2 遍歷所有資料,將每個資料劃分到最近的中心點中

3計算每個聚類的平均值,並作為新的中心點

4 重複2-3,直到這k個中線點不再變化(收斂了),或執行了足夠多的迭代

增量學習:

不斷從新樣本中學習新知識,並儲存大部分以前已經學過的知識。

機器學習演算法分類

這些演算法按照學習方式分類的分的話,可以分為一下幾類 1 監督式學習 從給定的訓練資料集中學習出乙個函式,當新的資料到來時,可以根據這個函式 結果。監督學習的訓練集需要包括輸入和輸出,也可以說是特徵和目標。訓練集中的目標是由人標註的。常見的監督式學習演算法包括回歸分析和統計分類。2 非監督式學習 與...

機器學習 分類演算法

最優化理論基礎 分類演算法詳解 簡單例項講解樸素貝葉斯分類演算法 機器學習實戰 樸素貝葉斯 機器學習實戰 python3 基於概率論的分類方法 樸素貝葉斯 機器學習入門之決策樹演算法 決策樹演算法的基本原理 機器學習實戰 python3 決策樹id3 機器學習實戰 基於資訊理論的三種決策樹演算法 i...

機器學習演算法分類

4.了解了機器學習的各種類別,那麼每一種類別有哪些應用呢?機器學習 machine learning 是人工智慧 ai 重要的一部分,是實現人工智慧的乙個途徑。機器學習包含不同種類的演算法,而為了解決不同型別的問題,機器學習演算法可以分為特定的種類,我們要使用最適合的演算法來解決它最擅長的問題。學習...