演算法實踐1 線性回歸

2021-08-28 18:26:03 字數 2568 閱讀 5154

sklearn.linear_model.linearregression(fit_intercept=true, normalize=false, copy_x=true, n_jobs=none) 超參

解釋型別(預設值)

fit_intercept

是否計算模型的截距;如果設定為 false,計算將不使用截距(即:期望資料已經進行了中心化處理)

boolean(true)

normalize

是否將資料歸一化;fit_intercept 設定為 false 時,這個引數可以忽略。如果設定為 true,回歸之前將通過減去均值並除l2範數進行歸一化。如果需要進行標準化,請在呼叫估計器 normalize=false的 fit 函式之前使用sklearn.preprocessing.standardscaler

boolean(false)

n_jobs

確定cpu的核數 (none表示1,-1 表示使用所有)

int or none(none) 屬性

解釋型別

coef_

回歸係數(斜率)

array

intercept_

截距array 方法

解釋型別

fit(x, y[, sample_weight])

訓練模型

x : array-like or 稀疏矩陣,y : array_like,sample_weight : numpy array

predict(x)

**x : array_like or 稀疏矩陣

score(x, y[, sample_weight])

評分指標

r 2=

1−(∑

i=1m

(y(i

)−y^

(i))

2)/m

(∑i=

1m(y

(i)−

yˉ)2

)/mr^2 = 1 - \frac^(y^ - \hat y^)^)/m}^(y^ - \bar y)^)/m}

r2=1−(

∑i=1

m​(y

(i)−

yˉ​)

2)/m

(∑i=

1m​(

y(i)

−y^​

(i))

2)/m

​float

import matplotlib.pyplot as plt

import numpy as np

from sklearn import datasets, linear_model

from sklearn.metrics import mean_squared_error, r2_score

experiences = np.array([0

,1,2

,3,4

,5,6

,7,8

,9,10

])salaries = np.array(

[103100

,104900

,106800

,108700

,110400

,112300

,114200

,116100

,117800

,119700

,121600])

# 將特徵資料集分為訓練集和測試集,除了最後5個作為測試用例,其他都用於訓練

x_train = experiences[:7

] x_train = x_train.reshape(-1

,1) x_test = experiences[7:

] x_test = x_test.reshape(-1

,1)# 把目標資料(特徵對應的真實值)也分為訓練集和測試集

y_train = salaries[:7

] y_test = salaries[7:

]# 建立線性回歸模型

regr = linear_model.linearregression(

)# 用訓練集訓練模型——看就這麼簡單,一行搞定訓練過程

regr.fit(x_train, y_train)

# 用訓練得出的模型進行**

diabetes_y_pred = regr.predict(x_test)

# 將測試結果以圖標的方式顯示出來

李燁-機器學習極簡入門課

深度學習實踐(1) 線性回歸

這次主要是初步用窮舉法實現深度學習的線性回歸。假設給出一組資料符合y 2x,這裡的2我們並不知道,是要求的未知量。如何求呢?用窮舉法。我們知道線性函式是y w x 假設b 0 設w 1 把x帶入,得到y pre y的 值 而損失函式就是loss y y pre 2 當loss最小時,也就是得到了最符...

線性回歸演算法 1 簡單線性回歸原理

一類機器學習演算法的思路 通過分析問題,找到問題的損失函式或者效用函式,通過最優化損失函式或者效用函式,確定機器學習的演算法模型 如圖所示,對於樣本,求一條擬合曲線 y ax b hat 為 的某個樣本 x 的 值,而 y 為樣本的真實值。我們希望 hat 和 y 的差距盡量小 y hat 2 此處...

機器學習 線性回歸python實踐 1

寫在最前面 線性回歸是機器學習最簡單的模型,用來尋找最佳擬合曲線。我曾經在數模比賽時用過,雖然只拿了省二。優點是 易於理解,計算簡單 缺點是 對於非線性的資料擬合效果不好 適用資料型別 數值型和標稱型資料 今天簡單介紹下最小二乘法 ordinary least squares 這是一組樣例資料的的散...