邏輯回歸筆記

2021-07-04 10:01:13 字數 1300 閱讀 4129

cost函式:

邏輯回歸的代價函式, 其實跟線性回歸有很大的不同。 

首先不僅僅是hypothesis函式的定義跟線性回歸很不一樣, 理解邏輯回歸的最重要的一點就是先理解hypothesis函式。 hypothesis的解釋是「在引數θ下, 輸入向量x對應y=1的概率」 這裡, y = 1 和y = 0 就是我們分類的依據。 如y = 1 表示腫瘤為惡性, y = 0 則表示為良性。 順便也解釋一下向量x , x中有兩個值 , 假設分別表示腫瘤的質量和尺寸, x(大) 則是訓練樣本中所有x的集合 。 

hypothesis函式: 對於任意乙個訓練樣本,輸入向量x(包含尺寸、和質量) ,在引數θ下, 會有乙個0-1之間的輸出值, 我們管它叫概率, 實際上只是乙個0-1之間的值, 不是真正意義上的概率。 如果該輸出為1, 並且該訓練樣本x對於的真實y也確實為1, 則我們的cost函式(第乙個式子) 返回0 。 如果hypothesis函式 的到返回值不為1 ,而實際上對應的y確實是1 , cost函式會返回乙個可能交大的值。 至於這個值有多大,則要看hypothesis函式的返回值 跟 1 差多少, 參看 -log(z) 的影象。 

根據這個假設函式, 我們得到的cost函式是凸的。 可以用梯度下降演算法來求出θ的最優值。  這個步驟就跟線性回歸是一直的了。 

再之後, 我們求出了θ  , 但是怎麼畫決策界限呢? 

根據x * theta = 0

我們可以得出: plot_x = [x(:,2), x(:,2)];

plot_y = (-1./theta(3)).*(theta(2).*plot_x + theta(1));  

為什麼只要任意兩個點就能確定這條線? 

因為 這實際上是x₂ = (-1./theta(3)).*(theta(2).*x₁+ theta(1)) 的直線, 當theta 確定以後(這兒已經確定)就是笛卡爾座標軸上的一條特定直線, 所以與具體訓練集中的資料就無關了。 

為什麼這條直線作為決策邊界呢?  

這是因為該直線是根據: theta * x = 0 變形得到的。  theta * x   就是hypothesis =  1/(1 + exp(z)) 中的z, 當z為0時 , hypothesis 的值為0.5, 所以在這條直線上的點就是hypothesis 的值為0.5 的點, 也就是概率為0.5的點, 這直線自然成了分水嶺。 

邏輯回歸學習筆記

邏輯回歸 邏輯回歸是乙個二分類問題,在分類過程值中可以得到代分類樣本所屬類別的概率。對於輸入x和輸出 結果y 邏輯回歸採用sigmoid函式,將實數域的x對映到 0 1 區間。sigmoid函式如下所示 h x 11 e x 則可以得到輸入x屬於正例和反例的概率,如下 py 1 x h x p y ...

學習筆記(三)邏輯回歸

線性回歸和邏輯回歸其實沒有多大的區別,就是邏輯回歸多了乙個sigmoid函式,使樣本能對映到 0,1 之間的數值,用來做分類問題。線性回歸 線性指輸入變數是一次的,回歸即擬合,線性回歸即 確定唯一的因變數 需要 的值 和乙個或多個數值型的自變數 變數 之間的關係。即 求出w,b的值y f x wx ...

學習筆記之邏輯回歸

引言 今天我們學習邏輯回歸。我們都知道線性回歸模型是y w tx b y w tx b y wtx b,我們對他進行變形,得到lny wtx blny w tx b lny wt x b,這就是 對數線性回歸 logit linear regression 就是我們所說的邏輯回歸。再變形y e wt...