從線性回歸到logistic回歸到一般回歸

2022-09-04 01:12:13 字數 817 閱讀 2505

參考資料:

回歸:屬於監督學習,由已有的(x,y)學習得到模型,根據輸入的x判斷y值

線性回歸:最簡單

估計函式

損失函式(loss function)  

損失函式採用估計函式值和觀測值的差值的平方和,乘以1/2. 這個係數是為了求導時候剛好消掉

為什麼選擇平方和作為loss function?

一般假設

,而服從正態分佈,因此

因此loss function採用平方和的形式

引數估計的方法:最小二乘法,梯度下降法(批量,增量)

1. 最小二乘法

矩陣描述:把每個x當做一列,拼成矩陣x,仍然有

。theta的矩陣描述是

採用了x的廣義逆矩陣。前提是要求x是列滿秩的。該方法的乙個缺點是計算量大,求逆矩陣速度慢。

2. 梯度下降法

1)選取theta的初始值(有一定技巧,對最後結果有影響)

2)改變theta的值,按照梯度下降的方向減小

梯度下降的方向是梯度的反方向

擴充套件:帶權重的線性回歸(用於**特定的**點,屬於非引數估計)

上述的誤差函式權重都是1,也可以根據到目標**點的距離賦予權重

其中離目標點x越近的訓練點的權重越大,影響越大

logistic回歸

本質上仍是是線性回歸。只是多了幾個中間層:期望值,連線函式

解決問題:0/1分類

從自變數->結果的對映:無窮->0 or 1

以屬於某一類的概率p作為期望值進行分類。p的取值範圍是[0,1],通過轉換

使得取值範圍變為(負無窮,正無窮)

因此作為模型。

從線性回歸到線性分類

線性回歸在統計機器學習中佔據了核心地位,最基礎的模型。線性回歸有三個特點,打破線性回歸的乙個或幾個特點,就形成了統計機器學習中的眾多模型。三個特點如下 1.線性 1.1關於特徵x是線性的,1.2關於引數w是線性的。1.3從全域性看線性組合之後直接輸出了結果,沒有任何處理。2.全域性性 對所有的特徵空...

機器學習之線性回歸以及Logistic回歸

1 線性回歸 回歸的目的是 數值型資料的目標值。目標值的計算是通過乙個線性方程得到的,這個方程稱為回歸方程,各未知量 特徵 前的係數為回歸係數,求這些係數的過程就是回歸。對於普通線性回歸使用的損失函式一般為平方誤差。把其用最小二乘法進行優化得到的關於係數w求導所得到的矩陣形式的表示式求得的 w便為最...

線性回歸 Logistic回歸 Softmax回歸

什麼是回歸?給定一些資料,x的值來 y的值,通常地,y的值是連續的就是回歸問題,y的值是離散的就叫分類問題。高爾頓的發現,身高的例子就是回歸的典型模型。回歸分為線性回歸 linear regression 和logistic 回歸。線性回歸可以對樣本是線性的,也可以對樣本是非線性的,只要對引數是線性...