機器學習 回歸

2021-09-18 06:19:41 字數 2324 閱讀 8240

機器學習之路:python支援向量機回歸svr **波士頓地區房價

python3 學習使用api

支援向量機的兩種核函式模型進行**(原始碼)

git:

from sklearn.datasets import load_boston

from sklearn.cross_validation import train_test_split

from sklearn.preprocessing import standardscaler

from sklearn.svm import svr

from sklearn.metrics import r2_score, mean_squared_error, mean_absolute_error

import numpy as np

boston = load_boston()

x = boston.data

y = boston.target

x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.25, random_state=33)

ss_x = standardscaler()

x_train = ss_x.fit_transform(x_train)

x_test = ss_x.transform(x_test)

ss_y = standardscaler()

y_train = ss_y.fit_transform(y_train.reshape(-1, 1))

y_test = ss_y.transform(y_test.reshape(-1, 1))

linear_svr = svr(kernel=「linear」)

linear_svr.fit(x_train, y_train)

linear_svr_y_predict = linear_svr.predict(x_test)

poly_svr = svr(kernel=「poly」)

poly_svr.fit(x_train, y_train)

poly_svr_y_predict = linear_svr.predict(x_test)

print(「線性核函式支援向量機的預設評估值為:」, linear_svr.score(x_test, y_test))

print(「線性核函式支援向量機的r_squared值為:」, r2_score(y_test, linear_svr_y_predict))

print(「線性核函式支援向量機的均方誤差為:」, mean_squared_error(ss_y.inverse_transform(y_test),

ss_y.inverse_transform(linear_svr_y_predict)))

print(「線性核函式支援向量機的平均絕對誤差為:」, mean_absolute_error(ss_y.inverse_transform(y_test),

ss_y.inverse_transform(linear_svr_y_predict)))

print(「對多項式核函式的預設評估值為:」, poly_svr.score(x_test, y_test))

print(「對多項式核函式的r_squared值為:」, r2_score(y_test, poly_svr_y_predict))

print(「對多項式核函式的均方誤差為:」, mean_squared_error(ss_y.inverse_transform(y_test),

ss_y.inverse_transform(poly_svr_y_predict)))

print(「對多項式核函式的平均絕對誤差為:」, mean_absolute_error(ss_y.inverse_transform(y_test),

ss_y.inverse_transform(poly_svr_y_predict)))

『』』線性核函式支援向量機的預設評估值為: 0.651717097429608

線性核函式支援向量機的r_squared值為: 0.651717097429608

線性核函式支援向量機的均方誤差為: 27.0063071393243

線性核函式支援向量機的平均絕對誤差為: 3.426672916872753

對多項式核函式的預設評估值為: 0.40445405800289286

對多項式核函式的r_squared值為: 0.651717097429608

對多項式核函式的均方誤差為: 27.0063071393243

對多項式核函式的平均絕對誤差為: 3.426672916872753

『』』

機器學習 回歸

有別於分類問題,回歸問題,主要是通過特徵來構造乙個函式,並用這個函式求得的值來近似的估計我們需要 的值。回歸的種類有很多,當然我一時之間不能夠完全的總結出所有的回歸分析方法,但是我們在以後的學習中慢慢的補充。作為乙個初學者,以下的總結可能有一些個人的誤區,所以如果出現什麼錯誤的話,我希望各個讀者能夠...

機器學習 回歸

線性回歸方程引數求解有兩種方式 梯度下降法 gradient descent 假設函式和代價函式 假設函式是我們選取的假設為最終求解到的函式曲線形式,而代價函式是乙個評估現在的曲線和真實樣本的差距 一般用平均方差表示 梯度表明了乙個函式變化最快方向的數值,用梯度下降法經過多次迭代可以使得代價函式趨於...

機器學習 logistic回歸

統計機器學習有兩種常見的機器學習演算法 logistic回歸和svm,這兩種演算法都涉及到優化問題,是非常重要的兩種機器學習演算法,尤其是logistic回歸可能是工程上用的最廣泛的機器學習演算法了。在logistic回歸中訓練分類器就是尋找最佳擬合引數,使用的是最簡單常見優化演算法 梯度下降法。l...