11 模型可解釋性與視覺化

2021-09-26 13:33:44 字數 1213 閱讀 7506

可解釋性,則說明對於模型的結果我們是可以理解的,我們不但知道正確率,我們還知道正確率怎麼來的,在生成環境中我們可能會通過模型的可及時性獲取與之相關的特徵,這樣可以使的我們樣本更具有訓練意義

print

(lr.coef_,lr.intercept_)

# 預設的排序結果是從小到大排序,因此最左邊就是負相關比較高的值

print

(np.argsort(lr.coef_)

)# 是乙個(13,) 的 ndarray資料型別

print

(type

(lb.feature_names)

)# 傳入排序後的索引,就可以得到排序後的特徵名稱的從小到大的排序結果

print

(lb.feature_names[np.argsort(lr.coef_)])

# 線性回歸具有可解釋型,可以從模型中獲取重要的指標(對比深度學習沒有可解釋性)

print

(lb.descr)

# 通過視覺化的方式顯示某個特徵與**之間的關係

import matplotlib.pyplot as plt

# 修改預設字型,否則會有中文亂碼問題

plt.rcparams[

'font.sans-serif']=

['simhei'

]# x[行,列] x[:,[2,3,4]]

defdrawscatter

(x, y, xlabel)

: plt.scatter(x, y)

plt.xlabel(xlabel)

plt.ylabel(

'房價'

) plt.title(f'與房價的散點圖'

) plt.grid(

) plt.show(

)drawscatter(x[:,

5], y,

"房間數"

)drawscatter(x[:,

4], y,

"環保指標"

XGB模型可解釋性SHAP包實戰

xgboost相對於邏輯回歸模型在進行 時往往有更好的精度,但是同時也失去了線性模型的可解釋性。feature importance可以直觀地反映出特徵的重要性,看出哪些特徵對最終的模型影響較大。但是無法判斷特徵與最終 結果的關係是如何的。lundberg和lee的 提出了shap值這一廣泛適用的方...

ccs框模型與視覺化格式模型

視覺化格式模型 margin對於table相關型別 除了table caption,table,inline table這3類 的元素是不起作用的,如td,tr,th等。另外對於行內非替換元素 如span元素 垂直方向的margin是不起作用的。padding屬性也有一定的限制,它可以使用在除dis...

CIFAR 10模型訓練與視覺化

通過caffe深度學習框架在cifar10資料集訓練得到模型,觀察並分析模型的train loss test loss及accuracy曲線,並對得到的caffemodel進行測試。資料集介紹 cifar 10是乙個使用非常廣泛的物體識別影象資料集,cifar 10資料中包含了60000張32 32...