監督學習下的判別式模型和生成式模型

2021-10-08 00:11:26 字數 1712 閱讀 6578

(一) 、監督學習下的判別式和生成式模型

監督學習的任務就是學習乙個模型,應用這一模型,對給定特徵的的輸入樣本,**樣本相應的輸出。這個模型的一般形式為決策函式:y=f(x)或者條件概率分布:p(y|x)

決策函式y=f(x):輸入乙個特徵為x的樣本,模型輸出乙個y,這個y與乙個閾值比較,根據比較結果判定x屬於哪個類別。例如二分類(y1和y2)問題,如果y大於閾值,特徵為x的樣本就屬於類y1,如果y小於閾值就屬於類y2。通過決策函式的輸出直接就能得到特徵為x的樣本對應的類別了。

條件概率分布p(y|x):輸入乙個特徵為x的樣本,模型通過比較它屬於的所有可能類別的概率,然後輸出概率最大的那個,作為特徵為x的樣本所屬的類別。例如二分類問題,如果模型計算出p(y1|x) > p(y2|x),那麼就認為特徵為x的樣本是屬於y1類的。

生成方法:先由資料學習聯合概率分布p(x,y),然後求出條件概率分布p(y|x)作為**的

模型,即生成模型的形式:p(y|x)=p(y,x) / p(x).這樣的方法之所以稱為生成方法,是因為模型表示了給定輸入x產生輸出y的生成關係。生成模型有:樸素貝葉斯法隱馬爾可夫模型。

判別方法:由資料直接學習決策函式f(x)或者條件概率分布p(y|x)作為**的模型,即是判別模型。判別方法關心的是對給定的輸入x,應該**什麼樣的輸出y,它在有限樣本條件下建立判別函式,不考慮樣本的產生模型。典型的判別模型包括**:k近鄰法、感知機、決策樹、邏輯斯諦回歸模型、最大熵模型、支援向量機、提公升方法和條件隨機場。

(二) 、判別式和生成式模型各自的特點

在監督學習中,生成方法和判別方法各有優缺點,適合於不同條件下的學習問題。

生成方法的特點:

生成方法可以還原出聯合概率分布p(x,y),而判別方法則不能;

生成模型需要學習聯合概率分布p(y,x)和特徵的概率分布p(x),準確的估計概率分布才能得到更好的模型,而p(x)是基於統計來得到的,直覺告訴我們樣本越多,那麼有限資料體現出的概率分布p(x)越能夠接近無限資料的真實分布,因此生成模型對樣本資料量需求較大。

生成方法的學習收斂速度更快,即當樣本容量增加的時候,學到的模型可以更快地收斂於真

實模型;

當存在隱變數時,仍可以用生成方法學習,此時判別方法就不能用。

判別方法的特點:

判別方法直接學習的是條件概率p(y|x)或決策函式f(x),直接面對**,往往學習的準確率更高;

判別模型對資料樣本數量要求不嚴格,樣本數量或多或少都能進行模型的學習。

判別模型由於直接學習了p(y|x)或f(x),可以對資料進行各種程度上的抽象、定義特徵並使用特徵,因此可以簡化學習問題。

判決模型有乙個很關鍵的因素就是要先人為的選擇乙個判決機制(例如lr,svm是構造決策超平面進行分類等等),生成模型基於統計學和貝葉斯理論。

參考:

[1]《神經網路與深度學習》吳岸城

[2]《統計學習方法》李航

[3]

判別式模型和生成式模型

判別式模型與生成式模型 生成式模型 generative model 與判別式模型 discrimitive model 是分類器常遇到的概念,它們的區別在於 對於輸入x,類別標籤y 1.生成式模型估計它們的聯合概率分布p x,y 2.判別式模型估計決策函式f x 或條件概率分布p y x 3.生成...

判別式模型和生成式模型

生成式模型 generative model 與判別式模型 discrimitive model 的區別在於 對於輸入x,類別標籤y 生成式模型估計它們的聯合概率分布p x,y 判別式模型估計條件概率分布p y x 判別式模型常見的主要有 邏輯回歸 logistic regression 支援向量機...

判別式模型和生成式模型

區別在於 對於輸入x,類別標籤y 生成式模型估計它們的聯合概率分布p x,y 判別式模型估計條件概率分布p y x 生成式模型可以根據貝葉斯公式得到判別式模型,但反過來不行。判別式模型常見的主要有 linear regression 線性回歸 logistic regression 最大熵模型 sv...