tensorflow學習筆記1

2021-08-22 08:48:37 字數 1831 閱讀 8924

卷積與池化:

卷積:1.stride [1,2,2,1]  卷積步長為2, 第1\4引數為1.分別表示batch和channel

valid:without padding(僅丟棄下面或右邊最多的行/列)

same:with zero padding 左奇右偶,在左邊補乙個0,右邊補2個0

weight_variable:

# 第一二引數值得卷積核尺寸大小,即patch=5*5,第三個引數是影象通道數=1,第四個引數是卷積核的數目=32,代表會出現多少個卷積特徵影象;

w_conv1 = weight_variable([5, 5, 1, 32])

# 對於每乙個卷積核都有乙個對應的偏置量。

b_conv1 = bias_variable([32])

# 乘以卷積核,並加上偏執量,卷積結果28x28x32

h_conv1 = tf.nn.relu(conv2d(x_image, w_conv1) + b_conv1)

池化:ksize [1,2,2,1]  池化視窗大小2*2  第1\4引數為1.

# 池化結果14x14x32 卷積結果乘以池化卷積核

h_pool1 = max_pool_2x2(h_conv1)

## 第二層卷積操作 ##

# 32通道卷積,卷積出64個特徵

w_conv2 = weight_variable([5,5,32,64])

# 64個偏執資料

b_conv2 = bias_variable([64])

# 注意h_pool1是上一層的池化結果,#卷積結果14x14x64

h_conv2 = tf.nn.relu(conv2d(h_pool1,w_conv2)+b_conv2)

全連線層:

# 二維張量,第乙個引數7*7*64的patch,也可以認為是只有一行7*7*64個資料的卷積,第二個引數代表卷積個數共1024個

w_fc1 = weight_variable([7*7*64, 1024])

# 1024個偏置資料

b_fc1 = bias_variable([1024])

tf.cats:轉換資料型別

tf.round() 捨入最近的整數

tf.reduce_sum(x,1/0):按某一維度以求和方式降維  0縱向求和,1橫向求和,不填預設為所有元素求和

tf.reduce_mean(x,1/0):按某一維度以求和方式降維 同上

np.shuffle(a):對矩陣進行洗牌,原矩陣改變.無返回值

定義初始化變數。但是這裡仍然不會立即執行。需要通過sess來將資料流動起來 。

切記:所有的運算都應在在session中進行:

with tf.session() as sess:

此處自動開啟乙個sessionsess.run(init)

對變數進行初始化,執行(run)init語句

feed_dict:

step_loss = sess.run([loss], feed_dict=)#feed_dict的作用是給使用placeholder建立出來的tensor賦值。其實,他的作用更加廣泛:feed 使用乙個 值臨時替換乙個 op 的輸出結果. 你可以提供 feed 資料作為 run() 呼叫的引數. feed 只在呼叫它的方法內有效, 方法結束, feed 就會消失.train_x替換x,train_y替換y

sess.run(b)只會計算和b有關的流程

其他:1、dropout必須設定概率keep_prob,並且keep_prob也是乙個佔位符,跟輸入是一樣的

keep_prob = tf.placeholder(tf.float32) 設定神經元被選中的概率,在初始化時keep_prob是乙個佔位符

tensorflow學習筆記1

在跑minist demo時,遇到了這幾句 batchsize 6 label tf.expand dims tf.constant 0,2,3,6,7,9 1 index tf.expand dims tf.range 0,batchsize 1 concated tf.concat 1,inde...

TensorFlow學習筆記1

1 tensorflow 谷歌第二代人工智慧學習系統 2 tensorflow顧名思義tensor flow。tensor的意思是 張量,flow的意思是 流動,合起來就是 張量的流動 3 系統架構及程式設計模型。其中系統架構如圖1所示,程式設計模型如圖2所示。圖1 tensorflow系統架構圖 ...

TensorFlow學習筆記1

編寫tensorflow的兩個步驟 構建計算圖graph 使用session去執行graph中的operation 這裡寫描述 三個基本概念 rank rank一般是指資料的維度,其與線性代數中的rank不是乙個概念。其常 用rank舉例如下。shape 指tensor每個維度資料的個數,可以用py...