十月26日 題目就要與眾不同

2021-10-25 06:37:08 字數 1363 閱讀 2723

1 轉換內容斜體樣斜體樣式式

conv5=slim.conv2d(pool4,

256,[3

,3], rate=

1, activation_fn=lrelu,scope=

'g_conv5_1'

) conv_global = tf.reduce_mean(conv5,axis=[1

,2])

# tf.reduce_mean 函式用於計算張量tensor沿著指定的數軸(tensor的某一維度)上的的平均值,

# 主要用作降維或者計算tensor(影象)的平均值。

conv_dense = tf.layers.dense(conv_global,units=

128,activation=tf.nn.relu)

# dense:全連線層相當於新增乙個層,即初學的add_layer()函式

feature = tf.expand_dims(conv_dense,axis=1)

# tf.expand_dims給定乙個input,在axis軸處給input增加乙個為1的維度。

feature = tf.expand_dims(feature,axis=2)

ones = tf.zeros(shape=tf.shape(conv4)

)# 建立乙個所有元素都設定為零的張量.

global_feature = feature + ones

tf.reduce_mean(input_tensor, axis=

none

, keepdims=

false

, name=

none

, reduction_indices=

none

)

1.1 axis在 tf.reduce_mean中的作用:沿著張量不同的數軸進行計算平均值。

1.1.1 axis缺失值為none,表示對所有元素求平均

如:a1=[1,2,3]

b1=[5,6,7]

c1=[[1,2,3],[5,6,7]]

tf.reduce_mean(c1,axis=none)

輸出結果為(1+2+3+5+6+7)/6=4

tf.layers.dense是乙個類,tf.layers.dense是乙個函式

對應的pytorch的nn.linear(in_features=512 * 512 * 3, out_features=128)

tf.expand_dims給定乙個input,在axis軸處給input增加乙個為1的維度。

# axis=0其實代表的第一維度,那麼1代表第二維度,2代表第三位度。

11月06 題目就要與眾不同

bceloss與crossentropyloss都是用於分類問題。可以知道,bceloss是binary crossentropyloss的縮寫,bceloss crossentropyloss的乙個特例,只用於二分類問題,而crossentropyloss可以用於二分類,也可以用於多分類。不過我重...

2020 08 12題目就要與眾不同

乙個數字影象是乙個二維離散訊號,利用希爾伯特曲線,可以將一副數字影象轉變為乙個一維離散訊號,這就使得對影象的處理變得更加容易。gch全域性顏色直方圖,是描述顏色特徵的最傳統的方式,缺陷,忽略了某種顏色在影象中的具體分布。也就是說,通過直方圖,可以了解某種顏色在影象中所佔的比例,但卻無法了解該顏色在影...

2020 08 15題目就要與眾不同

自然語言是一套用來表達含義的複雜系統。在這套系統中,詞是表義的基本單元。詞向量,是用來表示詞的向量或表徵,也可被認為是詞的特徵向量。把詞對映為實數域向量的技術也叫詞嵌入 word embedding 為何不用one hot向量?one hot向量構造起來容易,但不是乙個好選擇,主要原因 one ho...