tensorflow學習筆記1

2022-08-23 01:27:10 字數 2285 閱讀 1108

1.os.environ["cuda_visible_devices"]

os.environ[「cuda_device_order」] = 「pci_bus_id」 # 按照pci_bus_id順序從0開始排列gpu裝置

os.environ[「cuda_visible_devices」] = 「0」 #設定當前使用的gpu裝置僅為0號裝置  裝置名稱為'/gpu:0'

os.environ[「cuda_visible_devices」] = 「1」 #設定當前使用的gpu裝置僅為1號裝置  裝置名稱為'/gpu:0'

os.environ[「cuda_visible_devices」] = 「0,1」 #設定當前使用的gpu裝置為0,1號兩個裝置,名稱依次為'/gpu:0'、'/gpu:1'

os.environ[「cuda_visible_devices」] = 「1,0」 #設定當前使用的gpu裝置為1,0號兩個裝置,名稱依次為'/gpu:0'、'/gpu:1'。表示優先使用1號裝置,然後使用0號裝置

2.tf.constant()

函式引數tf.constant(value,dtype=none, shape=none, name='const', verify_shape=false)  第乙個值value是必須的,可以是乙個數值,也可以是乙個列表

3.sess.run()

輸出變數的值

4.tf.placeholder()

tf.placeholder( dtype,  shape=none,  name=none )  

dtype:資料型別。常用的是tf.float32,tf.float64等數值型別

shape:資料形狀。預設是none,就是一維值,也可以是多維(比如[2,3], [none, 3]表示列是3,行不定)

name:名稱

5.tf.add()

tf.add(x,y,name=

none)  引數相加

6.tf.multiply()

tf.multiply(x,y,name=none)

乘法,相同位置的元素相乘

x,y要有相同的資料型別

`half`, `float32`, `float64`, `uint8`, `int8`, `uint16`, `int16`, `int32`, `int64`, `complex64`, `complex128`.

7.sess.run(add,feed_dict=)

run(fetches,feed_dict=none,options=none, run_metadata=none)

fetches:單個圖元素,圖元素列表或字典,字典元素其值是圖元素或圖元素列表。

feed_dict:將圖元素對映到值的字典。

如果fetches是單個圖元素則返回單個值,如果fetches是列表則返回值列表,如果fetches是字典則返回具有相同鍵的字典

8.tf.matmul()

tf.matmul()將矩陣a乘以矩

陣b,生成a* b。

tf.matmul(a, b, transpose_a=false, transpose_b=false, adjoint_a=false, adjoint_b=false, a_is_sparse=false, b_is_sparse=false, name=none) 

引數: 

a: 乙個型別為 float16, float32, float64, int32, complex64, complex128 且張量秩 > 1 的張量。 

b: 乙個型別跟張量a相同的張量。 

transpose_a: 如果為真, a則在進行乘法計算前進行轉置。 

transpose_b: 如果為真, b則在進行乘法計算前進行轉置。 

adjoint_a: 如果為真, a則在進行乘法計算前進行共軛和轉置。 

adjoint_b: 如果為真, b則在進行乘法計算前進行共軛和轉置。 

a_is_sparse: 如果為真, a會被處理為稀疏矩陣。 

b_is_sparse: 如果為真, b會被處理為稀疏矩陣。 

name: 操作的名字(可選引數) 

返回值: 乙個跟張量a和張量b型別一樣的張量且最內部矩陣是a和b中的相應矩陣的乘積。 

注意: 

(1)輸入必須是矩陣(或者是張量秩 >2的張量,表示成批的矩陣),並且其在轉置之後有相匹配的矩陣尺寸。 

(2)兩個矩陣必須都是同樣的型別,支援的型別如下:float16, float32, float64, int32, complex64, complex128。 

tensorflow學習筆記1

在跑minist demo時,遇到了這幾句 batchsize 6 label tf.expand dims tf.constant 0,2,3,6,7,9 1 index tf.expand dims tf.range 0,batchsize 1 concated tf.concat 1,inde...

TensorFlow學習筆記1

1 tensorflow 谷歌第二代人工智慧學習系統 2 tensorflow顧名思義tensor flow。tensor的意思是 張量,flow的意思是 流動,合起來就是 張量的流動 3 系統架構及程式設計模型。其中系統架構如圖1所示,程式設計模型如圖2所示。圖1 tensorflow系統架構圖 ...

TensorFlow學習筆記1

編寫tensorflow的兩個步驟 構建計算圖graph 使用session去執行graph中的operation 這裡寫描述 三個基本概念 rank rank一般是指資料的維度,其與線性代數中的rank不是乙個概念。其常 用rank舉例如下。shape 指tensor每個維度資料的個數,可以用py...