調參小技巧 DBSCAN引數選取方法

2021-09-22 02:24:24 字數 1145 閱讀 1860

# 讀入第三方包

from sklearn import preprocessing

# 選取建模的變數

predictors =

['birth_rate'

,'death_rate'

]# 變數的標準化處理

x = preprocessing.scale(province[predictors]

)x = pd.dataframe(x)

# 構建空列表,用於儲存不同引數組合下的結果

res =

# 迭代不同的eps值

for eps in np.arange(

0.001,1

,0.05):

# 迭代不同的min_samples值

for min_samples in

range(2

,10):

dbscan = cluster.dbscan(eps = eps, min_samples = min_samples)

# 模型擬合

dbscan.fit(x)

# 統計各引數組合下的聚類個數(-1表示異常點)

n_clusters =

len(

[i for i in

set(dbscan.labels_)

if i !=-1

])# 異常點的個數

outliners = np.

sum(np.where(dbscan.labels_ ==-1

,1,0

))# 統計每個簇的樣本個數

stats =

str(pd.series(

[i for i in dbscan.labels_ if i !=-1

]).value_counts(

).values)

)# 將迭代後的結果儲存到資料框中

df = pd.dataframe(res)

# 根據條件篩選合理的引數組合

調參煉丹 深度學習訓練的小技巧,調參經驗。

經常會被問到你用深度學習訓練模型時怎麼樣改善你的結果呢?然後每次都懵逼了,一是自己懂的不多,二是實驗的不多,三是記性不行忘記了。所以寫這篇部落格,記錄下別人以及自己的一些經驗。ilya sutskever hinton的學生 講述了有關深度學習的見解及實用建議 獲取資料 確保要有高質量的輸入 輸出資...

深度學習調參技巧

模型引數的一般設定 epoch迭代幾十到幾百次。mini batch size從幾十到幾百,為了更好的利用硬體加速,通常取8的倍數,例如128,256。learning rate取0.1 資料集越大,模型越複雜,應取值越小 weight decay取0.005,momentum取0.9。dropou...

深度學習調參技巧

1 準備資料 務必保證有大量 高質量並且帶有乾淨標籤的資料,沒有如此的資料,學習是不可能的 2 預處理 這個不多說,就是0均值和1方差化 3 minibatch 建議值128,1最好,但是效率不高,但是千萬不要用過大的數值,否則很容易過擬合 4 梯度歸一化 其實就是計算出來梯度之後,要除以minib...