9 TensorFLow 中的決策函式

2021-08-11 07:51:05 字數 1433 閱讀 9167

# 神經網路的輸出

logits = tf.constant(

[3.0

,1.0,-

3.0]

)# 正確的標籤

y_ = tf.constant(

[1.0

,0.0

,0.0])

# 神經網路的輸出經過 softmax 變換得到每個類別的概率

y = tf.nn.softmax(logits)

>>

> array(

[0.87887824

,0.11894324

,0.00217852

], dtype=float32)

)

# 神經網路的輸出

logits = tf.constant(

[3.0

,1.0,-

3.0]

)# 正確的標籤

y_ = tf.constant(

[1.0

,0.0

,0.0])

# 神經網路的輸出經過 softmax 變換得到每個類別的概率

y = tf.nn.softmax(logits)

>>

> array(

[0.87887824

,0.11894324

,0.00217852

], dtype=float32)

)# 取得其中最大的 2 個元素的值和索引

y_top_2 = tf.nn.top_k(y,2)

>>

> topkv2(values=array(

[0.87887824

,0.11894324

], dtype=float32)

, indices=array([0

,1], dtype=int32)

)y_top_2.values

>>

> array(

[0.87887824

,0.11894324

], dtype=float32)

y_top_2.indices

>>

> array([0

,1], dtype=int32)

回歸問題的決策函式:前向傳播過程中最後一層神經網路的輸出結果即為網路的**結果

1、

2、tensorflow python api 翻譯(nn)

深度學習9 TensorFlow常見報錯及解決方法

在使用tensorflow時,經常會看到這樣那樣的報錯,這裡記錄一下,免得每次看到都得去網上搜。這些問題中,很多是版本問題導致的。1.argumenterror argument epoch conflicting option string epoch 報錯原因 中有解釋如下 因為你沒有真正訓練起...

Tensorflow中的Lazy load問題

用tensorflow訓練或者inference模型的時候,有時候會遇到執行越來越慢,最終記憶體被佔滿,導致電腦宕機的問題,我們稱之為記憶體溢位。出現這種問題很可能是因為在乙個session中,graph迴圈建立重複的節點所導致的lazy load問題。舉個例子,用tensorflow迴圈做多次加法...

tensorflow中的函式

執行當前tensor的run 操作 a tf.variable tf.ones 10 with tf.session as sess tf.global variables initializer run b sess.run a 1 b a eval 2 print b 中的 1 2 行的功能一樣...