統計學習方法學習筆記(第六章 邏輯斯諦回歸模型)

2021-08-29 16:05:45 字數 589 閱讀 4209

乙個時間的機率(odds)是指該事件發生的概率與該事件不發生概率的比值。如果事件發生的概率是p,那麼該事件的機率是p/1-p,

二項邏輯斯諦回歸模型是一種分類模型,對於這種模型而言,對數機率的值是w點x。

這就是說,在邏輯斯諦回歸模型中, 輸出y = 1的對數機率是輸入x的線性函式。或者說,輸出y = 1的對數機率是由輸入x的線性函式表示的模型,即邏輯斯諦回歸模型。

線性函式的值越接近正無窮,概率值就越接近1;線性函式的值越接近負無窮,概率值就越接近0。這樣的模型就是邏輯斯諦回歸模型。

邏輯斯諦模型、最大熵模型歸結為以似然函式為目標函式的最優化問題,通常通過迭代演算法求解。從最優化的觀點看,這時的目標函式具有很好的性質。

支援向量機學習的基本想法是求解能夠正確劃分訓練資料集並且幾何間隔最大的分離超平面。對線性可分的訓練資料集而言,線性可分分離超平面有無窮多個,但是幾何間隔最大的分離超平面是唯一的。這裡間隔最大化又稱為硬間隔最大化。

硬間隔最大化的直觀解釋是:對訓練資料集找到幾何間隔最大的超平面意味著以充分大的確信度對訓練資料進行分類。也就是說,不僅將正負例項點分開,而且對最難分的例項點也有足夠大的確信度將它們分開。這樣的超平面應該對未知的新例項有很好的分類**能力。

統計學習方法 第六章 邏輯回歸與最大熵模型

2.最大熵模型 3.模型學習的最優化演算法 略 邏輯回歸與最大熵模型都屬於對數線性模型。二項邏輯回歸模型是一種分類模型,描述的是條件概率分布p y x p y x p y x 隨機變數x取值為實數,隨機變數y取值為0或1,邏輯回歸模型是如下的條件概率分布 有時為了簡單,也直接把wx bwx b wx...

第六章 學習筆記

1.引數分為位置引數和關鍵字引數。def func positional para x,y,z passdef func keyword para kwd1 1,kwd2 4,kwd3 9 pass2.1 當有多個位置引數時,可以用乙個星號來收集引數,函式內使用這些位置引數時可以通過for 迴圈依次...

第六章學習筆記

人員中斷 程序中斷 硬體中斷 程序的陷阱錯誤 按 ctrl c 組合鍵通常會導致當前執行的程序終止。原因如下 ctrl c組合鍵會生成乙個鍵盤硬體中斷。鍵盤中斷處理程式將ctrl c組合鍵轉換為sigint 2 訊號,傳送給終端上的所有程序,並喚醒等待鍵盤輸入的程序。在核心模式下,每個程序都要檢查和...