sklearn 常用屬性與功能

2021-09-17 02:35:05 字數 1298 閱讀 3367

from sklearn import datasets

from sklearn.linear_model import linearregression

loaded_data = datasets.load_boston()

data_x = loaded_data.data

data_y = loaded_data.target

model = linearregression()

model.fit(data_x, data_y)

print(model.predict(data_x[:4, :]))

「」"

[ 30.00821269 25.0298606 30.5702317 28.60814055]

「」"model.fit 和 model.predict 就屬於 model 的功能,用來訓練模型,用訓練好的模型**。

引數和分數

然後,model.coef_ 和 model.intercept_ 屬於 model 的屬性, 例如對於 linearregressor 這個模型,這兩個屬性分別輸出模型的斜率和截距(與y軸的交點)。

print(model.coef_)

print(model.intercept_)

"""[ -1.07170557e-01 4.63952195e-02 2.08602395e-02 2.68856140e+00

-1.77957587e+01 3.80475246e+00 7.51061703e-04 -1.47575880e+00

3.05655038e-01 -1.23293463e-02 -9.53463555e-01 9.39251272e-03

-5.25466633e-01]

36.4911032804

"""

model.get_params() 也是功能,它可以取出之前定義的引數。

print(model.get_params())

""""""

model.score(data_x, data_y) 它可以對 model 用 r^2 的方式進行打分,輸出精確度。關於 r^2 coefficient of determination 可以檢視 wiki

print(model.score(data_x, data_y)) # r^2 coefficient of determination

"""0.740607742865

"""

Sklearn包含的常用演算法

原文傳送門 sklearn包含的常用演算法 文章列出了sklearn模組中常用的演算法及呼叫方法,部分生僻的未列出 對我來說算生僻的 如果有寫的不對的地方請指出。參考資料來自sklearn官方 總的來說,sklearn可實現的函式或功能可分為以下幾個方面 二次判別分析 qda from sklear...

非功能屬性

根據iso25010和ieee.29119 4附錄a中的描述,非功能屬性測試也稱質量屬性測試,包括以下14點 功能測試和過程測試在功能屬性中進行 可達性 可指軟體從設計到實現,能使殘障人士,老年人,非本土人群等不同人群獲得同等資訊和服務。可恢復性 指軟體在發生故障時是否可以將測試項從備份恢復到其故障...

sklearn中SVC中的引數說明與常用函式

svm.svc c 1.0,kernel rbf degree 3,gamma auto coef0 0.0,shrinking true,probability false,tol 0.001,cache size 200,class weight none,verbose false,max i...