線性回歸 機器學習

2021-10-01 07:16:26 字數 1547 閱讀 2914

# coding=utf-8

from sklearn.datasets import load_boston

from sklearn.linear_model import linearregression, sgdregressor, ridge

from sklearn.model_selection import train_test_split

from sklearn.preprocessing import standardscaler

# 正規方程**房價

def myliner():

"""這是乙個問題

:return:

"""print("-"*100)

# 獲取資料

lb = load_boston()

# 資料分割

x_train, x_test, y_train, y_test = train_test_split(lb.data, lb.target, test_size=0.25)

# 資料標準化處理 -> 目標值與特徵值一起標準化

# print(y_train, y_test)

std_x = standardscaler()

x_train = std_x.fit_transform(x_train)

x_test = std_x.transform(x_test)

std_y = standardscaler()

y_train = std_y.fit_transform(y_train.reshape(-1, 1))

y_test = std_y.transform(y_test.reshape(-1, 1))

# print("-"*100)

# print(y_train, y_test)

# 開始學習

lr = linearregression()

lr.fit(x_train, y_train)

print(lr.coef_)

# **結果

y_predict = lr.predict(x_test)

print("**結果: ", y_predict)

# 梯度下降**

sgd = sgdregressor()

sgd.fit(x_train, y_train)

print(sgd.coef_)

y_predict2 = sgd.predict(x_test)

print("**結果2:", y_predict2)

print("-"*100)

# 嶺回歸

rd = ridge(alpha=1.0)

rd.fit(x_train, y_train)

print(rd.coef_)

print(rd.predict(x_test))

return none

# 最小二乘法?

if __name__ == "__main__":

"""線性回歸:目標值是連續的

"""myliner()

機器學習 線性回歸

可以說基本上是機器學習中最簡單的模型了,但是實際上其地位很重要 計算簡單 效果不錯,在很多其他演算法中也可以看到用lr作為一部分 先來看乙個小例子,給乙個 線性回歸是什麼 的概念。圖來自 2 假設有乙個房屋銷售的資料如下 面積 m 2 銷售價錢 萬元 123 250 150 320 87 160 1...

機器學習(線性回歸)

在機器學習中,回歸 分類和標註共同構成了監督學習技術。監督學習 supervised learning 是機器學習在工業界應用最廣的乙個領域分支。在學術界中也是研究最多的領域之一。大家都知道的資料探勘十大經典演算法中,監督學習技術佔據6席。方法 自變數 特徵 因變數 結果 關係 回歸演算法是試圖採用...

機器學習 線性回歸

line fitter linearregression 建立模型 line fitter.fit temperature,sales 傳入引數 sales predict line fitter.predict temperature 模型 直線 直線上會有loss 計算loss時 要使用平方距離...