01 線性回歸演算法

2022-08-31 09:27:13 字數 1658 閱讀 3481

機器學習分類:回歸,分類

回歸:最終得到的是在乙個區間上真正(實際)的值

分類:最終得到的是個邏輯值0/1,是與不是,能與不能之類的答案

名詞解釋

擬合:擬合就是把平面上一系列的點,用一條光滑的曲線連線起來。因為這條曲線有無數種可能,從而有各種擬合方法。擬合的曲線一般可以用函式表示,根據這個函式的不同有不同的擬合名字。

最小二乘法:最小二乘法(又稱最小平方法)是一種數學

優化技術。它通過最小化誤差的平方和尋找資料的最佳

函式匹配。利用最小二乘法可以簡便地求得未知的資料,並使得這些求得的資料與實際資料之間誤差的平方和為最小。最小二乘法還可用於

曲線擬合

。其他一些優化問題也可通過最小化能量或最大化熵用

最小二乘法

來表達回歸問題舉例:

對問題進行數學化:

x1,x2就是我們的兩個特徵值(年齡,工資),而y是最終銀行會借給我們多少錢。

需要解決的問題就是:找到一條來最好擬合我們資料的點。

最終得到的整合的h(x)主要是為了使資料看起來更加的整齊,也方便以後的矩陣運算。

誤差分析

誤差三個特性:獨立,同分布,高斯分布

似然函式求解:

eg:簡化運算:log(ab) = loga + logb

目標函式求解:求j(0)的最小值               注意:樣本服從高斯分布且獨立,其最大似然估計就可以用最小二乘形式表示。

x,y為已知的資料,即可求得佘塔

評估方法:

來自為知筆記(wiz)

01 線性回歸

import keras import numpy as np import matplotlib.pyplot as plt from keras.models import sequential 按順序構成的模型 如一層層構成的神經網路 from keras.layers import dens...

01 線性模型 線性回歸與邏輯回歸

線性模型 試圖學得乙個屬性的線性組合來進行 的函式 f x w 1x 1 w 2x 2 w dx d b 向量模式 f x w tx b 簡單 基本 可解釋性好 可看出每部分屬性所做的貢獻 可用於分類和回歸 多個特徵 h x sum theta ix i theta tx 損失函式mse j the...

線性回歸演算法

1 有監督學習 supervised learning 不僅把訓練資料丟給計算機,而且還把分類的結果 資料具有的標籤 也一併丟給計算機分析。計算機進行學習之後,再丟給它新的未知的資料,它也能計算出該資料導致各種結果的概率,給你乙個最接近正確的結果。由於計算機在學習的過程中不僅有訓練資料,而且有訓練結...