機器學習方法 線性回歸和邏輯回歸小記

2021-09-30 14:08:52 字數 298 閱讀 2060

個人學習臨時筆記,供提後查閱

線性回歸方法就是就是根據資料計算得出乙個線性函式y=ax+b

得出模型的標準就是與所有已知點的誤差平方和為最小,視為最優模型

讓我用最笨的想法就是把a和b所有可能的值都和已知資料算一遍求誤差平方和

然後從中檢索出最小值,從而確定a,b的數值

當然求極值數學上有個求導的方法,具體需要研究原理,重新看高數吧,哈哈哈。。。

邏輯回歸,和線性回歸基本一致,區別在於輸出不是連續的,而是做了分散,比如針對結果只有真假的情況

可以將y是在50以上視為真,以下視為假

機器學習 線性回歸和邏輯回歸

1 線性回歸要求變數服從正態分佈,logistic回歸對變數分布沒有要求。2 線性回歸要求因變數是連續性數值變數,而logistic回歸要求因變數是分型別變數。3 線性回歸要求自變數和因變數呈線性關係,而logistic回歸不要求自變數和因變數呈線性關係 4 logistic回歸是分析因變數取某個值...

機器學習演算法 線性回歸

線性回歸應該算機器學習演算法裡面最基礎的演算法了,分別用作回歸 y值為連續值 和分類 y值為離散 在學習線性回歸的過程中,有很多機器學習的概念和方法是在這時候提出的。在現實中變數之間的關係,是有確定的和非確定的。確定關係指的是變數之間可以使用函式關係式表示,非確定的部分我們可以用概率分布來表示,如乙...

機器學習演算法 線性回歸

樣本特徵只有乙個的線性回歸問題,為簡單線性回歸。樣本特徵有多個的線性回歸問題,為多元線性回歸。兩個變數之間的關係是一次函式關係的 圖象是直線,這樣的兩個變數之間的關係就是 線性關係 如果不是一次函式關係的 圖象不是直線,就是 非線性關係 線性回歸演算法將無數的訓練集資料放在乙個座標系中,以座標系的乙...