AlphaDropout和selu的使用

2021-10-10 03:47:37 字數 882 閱讀 6183

# tf.keras.models.sequential()

model = keras.models.sequential(

)model.add(keras.layers.flatten(input_shape=[28

,28])

)for _ in

range(20

):model.add(keras.layers.dense(

100, activation=

"selu"))

model.add(keras.layers.alphadropout(rate=

0.5)

)# alphadropout: 1. 均值和方差不變 2. 歸一化性質也不變 這使得批歸一化和dropout一起使用成為可能。

# model.add(keras.layers.dropout(rate=0.5))

model.add(keras.layers.dense(

10, activation=

"softmax"))

#最後一層用softmax,輸出各種分類可能的概率,比如[0.2,0.3,0.1,0.4]就是soft處理之後的。

model.

compile

(loss=

"sparse_categorical_crossentropy"

, optimizer =

"sgd"

, metrics =

["accuracy"

])

訓練的曲線圖

OC語言description方法和sel

一 description方法 description方法包括類方法和物件方法。nsobject 類所包含 一 基本知識 description 物件方法 使用nslog和 輸出某個物件時,會呼叫物件的 description 方法,並拿到返回值進行輸出。description 類方法 使用nslo...

OC語言description方法和sel

oc語言 description 方法和sel 一 description方法 description方法包括類方法和物件方法。nsobject 類所包含 一 基本知識 description 物件方法 使用nslog和 輸出某個物件時,會呼叫物件的 description 方法,並拿到返回值進行輸...

OC語言description方法和sel

oc語言 description 方法和sel 一 description方法 description方法包括類方法和物件方法。nsobject 類所包含 一 基本知識 description 物件方法 使用nslog和 輸出某個物件時,會呼叫物件的 description 方法,並拿到返回值進行輸...