Logistic回歸,多類分類

2021-09-24 01:25:33 字數 2054 閱讀 7280

1對其他(one-vs-rest,ovr):

對每個類別c,訓練乙個logistic回歸分類器

對新的輸入x,選擇使得

多項分布

在概率分布中,貝努利(bernoulli)分布的輸出只有兩種取值。

multinoulli分布,或稱為範疇分布(categorical distribution),輸出有k種取值。

類似用bernoulli分布描述兩類分類的概率分布,可用multinoulli分布描述多類分類的概率分布,其引數為向量

將類別y用獨熱編碼(編碼為c維向量,當y=c時,第c維為1,其他元素均為0),記為向量y

則multinoulli分布的概率函式為:

或者用標量形式記為:

softmax分類器

類似兩類分類模型推導,假設輸出y=c的概率可以由x的線性組合再經過sigmoid函式變換得到

則模型為:

上述等式右邊為softmax函式。softmax函式為sigmoid函式的推廣,將c維向量的每個元素轉換為[0,1]的數,且變換後元素之和為1:

因此得到的分類器被稱為softmax分類器。

將類別y用獨熱編碼為向量y:

向量μ表示multinoulli分布的引數:

softmax分類模型的log似然函式為:

定義softmax損失為:

則極大似然估計等價於最小訓練集上的softmax損失/負log似然損失:

正則項:softmax分類模型的正則項同兩類分類模型

目標函式優化方法:同兩類分類模型

logistic回歸優化求解

scikit-learn中實現logistic回歸的類

class

sklearn.linear_model.logisticregression

(penalty=』l2』

, dual=false

, tol=0.0001

, c=1.0

, fit_intercept=true

, intercept_scaling=1

, class_weight=none

, random_state=none

, solver

=』liblinear』

, max_iter=100

, multi_cla

ss=』ovr』

, verbose=0

, warm_start=false

, n_jobs=1)

引數multi_class決定了多類分類的實現方式,可選:

1、『ovr』:即1對其他(one-vs-rest,ovr),將多類分類轉化為多個二類分類任務。為了完成第c類的分類決策,將所有第c類的樣本作為正例,除了第c類樣本以外的所有樣本都作為負例,每個類別的二分類器單獨訓練。

2、『multinomial』:softmax回歸分類,對多項分布概率整體進行訓練。

注意:multi_class選擇會影響優化演算法solver引數的選擇

ovr:可用所有的slover

multinomial:只能選擇newton-cg,lbfgs和sag/saga(liblinear不支援)

logistic分類(logistic回歸 LR)

幾乎所有的教材都是從logistic分類開始的,因為logistic分類實在太經典,而且是神經網路的基本組成部分,每個神經元 cell 都可以看做是進行了一次logistic分類。所謂logistic分類,顧名思義,邏輯分類,是一種二分類法,能將資料分成0和1兩類。logistic分類的流程比較簡單...

logistic回歸 logistic回歸

logistic回歸 logistic回歸分析可用於估計某個事件發生的可能性,這是乙個分類模型而不是乙個回歸模型!它的基本思想是利用一條直線將平面上的點分為兩個部分,即兩個類別,要解決的問題就是如何擬合出這條直線,這個擬合的過程就稱之為 回歸 logistic模型 假設你有乙個需要 的內容,要通過三...

有序分類logistic回歸 R語言

正如字面理解,包含兩個方面 一是有序性,如調研中常用的滿意度常用李克特量表,即有序的因變數 二是logistic分類,如1代表優秀 2代表良好 3代表一般等等。因變數為分類變數,且分類間有次序關係,針對因變數為分型別資料的情況應該選用logistic回歸,故應採用有序多分類的logistic回歸分析...