keras搬磚系列 重溫函式式模型

2021-08-14 17:05:52 字數 859 閱讀 2130

keras函式式模型介面是使用者定義多輸出模型,非迴圈有向模型或具有共享層的模型等複雜模型的途徑。

需要多個輸出,應該選擇函式式模型。

輸入是張量,輸出也是乙個框架就是乙個模型,通過model定義。

from keras.layers import input,dense

from keras.models import model

inputs = input(shape=(784,))

x = dense(64,activation='relu')(inputs)

x = dense(64,activation='relu')(x)

predictions = dense(10,activation='softmax')(x)

model = model(inputs = inputs,outputs = predictions)

model.compile(optimizer='rmsprop',loss='categorical_crossentropy',

metrics=['accuracy'])

model.fit(data,labels)

利用函式式模型的介面,我們可以很容易重用已經訓練好的模型,可以把模型當作乙個層一樣,通過tensor進行呼叫。呼叫

主要輸入接收新聞本身,即乙個整數的序列。這些整數字於1-100000之間,這個序列有100個單詞。

keras搬磚系列 正則項

正則項在優化的過程中層的引數或者層的啟用值新增懲罰項,這些懲罰項將與損失函式一起作為網路的最終優化目標。懲罰項是對層進行懲罰,目前懲罰項的介面與層有關。主要由 kernel regularizer 施加在權重上的正則項,為keras.regularizer.regularizer物件 bias re...

keras搬磚系列 正則化

1,正則化簡介 以邏輯回歸來對正則化進行介紹 邏輯回歸原來的代價函式為 minw,b j w,b minw,b1m mi 1 l y i y i 其中 w r nx,b r加入正則化為 j w,b 1m mi 1 l y i y i 2 m w 22 其中 w 2 nx j 1 wtw 上述式子為l...

keras搬磚系列 調參經驗

1,觀察 loss勝於觀察準確率,loss設計要比較合理,對比訓練集和驗證集的 loss 2,relu可以很好的防止梯度瀰散的問題,當然最後一層啟用函式盡量別用 relu,如果分類則用 softmax 3,batchnorm 可以大大加快訓練速度和模型的效能 4,dropout防止過擬合,可以直接設...