線性回歸和邏輯回歸的關係

2022-02-24 03:37:30 字數 642 閱讀 4592

【需求是讓f(x)來擬合[0,1]】,這個時候應該怎麼做呢。擬合[0,1]就是【二分類】的問題。

【階躍函式不連續,不可導】,所以就【用sigmoid】,所以就是邏輯回歸了

邏輯回歸:$$y = \frac x + b ) } }$$一般形式:$$f ( x ) = w _ x _ + w _ x _ + \ldots + w _ x _ + b$$

向量形式:$$f ( x ) = w ^ x + b,其中w為w = ( w _ ; w _ ; \ldots ; w _ )$$

這樣的f(x)是用來擬合整個實數級的,而如果我的需求是讓f(x)來擬合[0,1],這個時候應該怎麼做呢。擬合[0,1]就是二分類的問題。

於是,我們需【將實值f(x)轉換為0/1值】.最理想的是【「單位階躍函式」(unit-step

function)】:$$y = \left\ & \\ & \\ &

\end \right.$$

但是,階躍函式不連續,不可導,所以就用sigmoid,所以就是邏輯回歸了

邏輯回歸:$$y = \frac x + b ) } }$$

線性回歸和邏輯回歸

最近開始學習機器學習,有點心得體會,記錄一下,希望大家批評指正 監督學習 supervised learning 根據已有的資料集,知道輸入和輸出結果之間的關係。根據這種已知的關係,訓練得到乙個最優的模型。也就是說,在監督學習中訓練資料既有特徵 feature 又有標籤 label 通過訓練,讓機器...

線性回歸 和 邏輯回歸

跟著b站乙個小姐姐學的 很不錯 1 什麼是回歸 什麼是分類?簡單來說一般回歸問題在數值上是乙個連續的 而分類問題在數值上一般是離散型的 回歸 回歸模型的更傾向於很小的區域 或者是乙個x對應乙個y 線性回歸就不在討論了 這裡學習一下 邏輯回歸 邏輯回歸 聽起來是回歸 但實際上他是解決分類問題的 是乙個...

Coursera 線性回歸和邏輯回歸

在原式子裡加入乙個 error term 之後得到這個 error tem 的正態分佈,從而到處輸出y和x 之間的概率關係。然後通過最大似然估計法,得到若要使得y的概率最大,等價於利用最小二乘法最小化 引數 的數量隨著訓練資料的增大而變多,但是當訓練資料量巨大的時候,每次 所需要的代價都很高。原訓練...