基於softmax回歸的MNIST分類

2021-08-24 18:12:33 字數 2429 閱讀 6329

mnist是在機器學習領域中的乙個經典問題。為了學習機器學習和tensorflow庫的使用,使用tf構造乙個softmax回歸網路模型去識別手寫數字。以下內容請參考tensorflow中文社群(

1)mnist介紹

2)softmax回歸介紹

3)回歸模型的訓練和評估

具體**如下:

"""

分類物件:mnist手寫數字識別

分類方法:使用乙個2層nn,即乙個非線性變換來識別

input ------------>output

784d softmax 10d

"""import tensorflow as tf

import numpy as np

import matplotlib.pyplot as plt

from tensorflow.examples.tutorials.mnist import input_data

# loading mnist data

mnist = input_data.read_data_sets('mnist_data',one_hot=true)

defadd_layer

(inputs,in_size,out_size,activation_function=none):

weights = tf.variable(tf.random_normal([in_size, out_size]), name='w')

biases = tf.variable(tf.zeros([1, out_size]) + 0.1, name='b')

wx_plus_b = tf.matmul(inputs, weights) + biases

if activation_function is

none: # 如何啟用函式為空,則是線性函式

outputs = wx_plus_b

else:

outputs = activation_function(wx_plus_b)

return outputs

defcompute_accuracy

(vxs,vys):

global prediction

y_pre = sess.run(prediction,feed_dict=)

err = tf.equal(tf.argmax(y_pre,1),tf.argmax(vys,1))

acc = tf.reduce_mean(tf.cast(err,tf.float32))

result = sess.run(acc,feed_dict=)

return result

# define placeholder for inputs to network

xs = tf.placeholder(tf.float32,[none,784]) #28*28

ys = tf.placeholder(tf.float32,[none,10])

# add output layer

prediction = add_layer(xs,784,10,activation_function=tf.nn.softmax)

# the error between prediction and real data

loss = tf.reduce_mean(-tf.reduce_sum(ys*tf.log(prediction),

reduction_indices=[1]))

train_step = tf.train.gradientdescentoptimizer(0.5).minimize(loss)

#important step

sess = tf.session()

sess.run(tf.global_variables_initializer()) #tf.initialize_all_variables在2017-03-02之後刪除,改為global_variables_initializer

plt.figure()

plt.axes([0,10000,0,1])

plt.ion()

batch_size = 100

for i in range(10000):

batch_xs,batch_ys = mnist.train.next_batch(batch_size)

sess.run(train_step,feed_dict=)

if i%50==0:

acc =compute_accuracy(mnist.test.images,

mnist.test.labels)

print(acc)

plt.plot(i,acc,'b.-')

plt.pause(0.00000001)

plt.ioff()

plt.show()

Softmax回歸練習

整個流程包括以下四部分 1 定義演算法公式,也就是神經網路的forward時的計算 y softmax w.tx b 2 定義損失函式 h y y log y 並制定優化器 梯度下降 3 迭代的對資料進行訓練 4 在測試集或驗證集上對準確率進行評測 import tensorflow as tf 匯...

SoftMax回歸詳解

損失函式 梯度下降法求引數 omega b bb 實現與 logistic 回歸的關係 重點 關係 求導的關係 重點 from sklearn import datasets import numpy as np iris datasets.load iris 載入鳶尾花資料集 x iris dat...

線性回歸與softmax回歸的區別

線性回歸是一種回歸演算法,根據當前資料去學習直線的兩個引數。可以用輸入特徵維度為2輸出為1的單層神經網路來實現。線性回歸模型適 於輸出為連續值的情景 softmax回歸,是一種分類方法,模型輸出可以是 個 像影象類別這樣的離散值。對於這樣的離散值 問題,我們可以使 諸如softmax 回歸在內的 分...