TensorFlow 實現分類操作的函式學習

2022-06-16 10:42:07 字數 769 閱讀 2565

函式:tf.nn.sigmoid_cross_entropy_with_logits(logits, targets, name=none)

說明:此函式是計算logits經過sigmod函式後的交叉熵值(即互熵損失),能幫助你更好的進行分類操作。對於乙個不相互獨立的離散分類任務,這個函式作用是去度量概率誤差。

簡單點就是去度量化。

例項:

1

#output 的計算方法:max(x, 0) - x * z + log(1 + exp(-abs(x)) )2#

logits 和 targets 必須有相同的資料型別和資料維度

3 inputdata = tf.variable(np.random.rand(1,3), dtype=np.float32)

4 output = tf.nn.sigmoid_cross_entropy_with_logits(logits = inputdata, labels = [[1.0, 0.0, 0.0]])

5with tf.session() as sess:

6sess.run(tf.global_variables_initializer())

7print

(sess.run(inputdata))

8print (sess.run(output))

輸出:[[ 0.0086241 0.42953941 0.91944432]]

[[ 0.68884444 0.93080473 1.25501657]]

Tensorflow實現LSTM文字分類

最近需要寫乙個神經網路模型來做分類。作為此前沒有實戰過深度學習,只寫過svm之類的,學習過一些理論知識的新手,為了快速上手,第一想法就是找乙個簡單的demo跑通,對整個流程和結構有乙個初步體驗。於是在網上找了乙個tensorflow實戰系列 手把手教你使用lstm進行文字分類 但是教程存在乙個問題,...

Tensorflow 多分類問題

import requests import numpy as np 複製 r requests.get 複製 with open iris.data w as f f.write r.text 複製 import pandas as pd 複製 data pd.read csv iris.data...

tensorflow 分類損失函式問題(有點坑)

tf.nn.softmax cross entropy with logits 記為f1 和 tf.nn.sparse softmax cross entropy with logits 記為f3 以及 tf.nn.softmax cross entropy with logits v2 記為f2 ...