keras中啟用函式的使用

2021-09-24 10:27:51 字數 1089 閱讀 3200

兩種方式:

一、通過keras封裝的網路層中的activation引數指定:

例如,下面的卷積層中的指定的啟用函式為relu函式:

from keras.model import sequential

from keras.layers import conv2d

from keras.layers import maxpooling2d

model = sequential()

model.add(conv2d(

kernel_size=(9,9),

activation="relu",

filters=48,

strides=(4,4),

input_shape = input_shape))

model.add(maxpooling2d((3,3), strides=(2,2), padding='same'))

model.add(conv2d(

strides=(1,1),

kernel_size=(3,3),

activation="relu",

filters=128))

model.add(conv2d(

strides=(1,1),

kernel_size=(3,3),

activation="relu",

filters=128))

model.add(maxpooling2d((3,3), strides=(2,2), padding='same'))

二、通過activation啟用層單獨封裝:

from keras.layers import activation, dense

model.add(dense(64))

model.add(activation('sigmoid'))

等價於: 

model.add(dense(64, activation='sigmoid'))

Keras啟用函式Activations

啟用函式可以通過設定單獨的啟用層實現,也可以在構造層物件時通過傳遞activation引數實現。model.add dense 64 activation tanh 預定義啟用函式 softmax 對輸入資料的最後一維進行softmax,輸入資料應形如 nb samples,nb timesteps...

keras 9 啟用函式 Activations

softmax elu 指數線性單元 selu 可伸縮的指數線性單元 softplus log exp x 1 softsign x abs x 1 relu cs231n推薦 tanh sigmoid hard sigmoid linear 線性啟用函式,即不做任何改變 對於theano tens...

啟用函式的使用

簡單的二分類問題 1.網路結構的設計 2.分類結果 輸出為 y w 1x1 w2x2 by w 1x 1 w 2x 2 b y w1 x 1 w 2 x2 b 此為 x1x1 x1和 x2x2 x2的線性組合,線性組合只能是直線,這樣就擬合處一條直線,將圓形和正方形進行分類,分類後的結果如下圖 複雜...