TensorFlow(三)張量的典型應用

2021-10-01 12:53:46 字數 1133 閱讀 9850

在 tensorflow 中,標量最容易理解,它就是乙個簡單的數字,維度數為 0, shape 為。標量的一些典型用途是誤差值的表示、 各種測量指標的表示,比如準確度(accuracy,簡稱 acc),精度(precision)和召回率(recall)等。

向量是一種非常常見的資料載體,如在全連線層和卷積神經網路層中,偏置張量b就使用向量來表示。

矩陣也是非常常見的張量型別,比如全連線層的批量輸入張量x的形狀為[b, din],其中b表示輸入樣本的個數,即 batch size, din表示輸入特徵的長度。

三維的張量乙個典型應用是表示序列訊號,它的格式是

x =

[b, sequence len

, feature len

]

其中b表示序列訊號的數量, sequence len 表示序列訊號在時間維度上的取樣點數或步數,feature len 表示每個點的特徵長度。

考慮自然語言處理(natural language processing,簡稱 nlp)中句子的表示,如評價句子的是否為正面情緒的情感分類任務網路。為了能夠方便字串被神經網路處理,一般將單詞通過嵌入層(embedding layer)編碼為固定長度的向量,比如「a」編碼為某個長度 3 的向量, 那麼 2 個等長(單詞數量為 5)的句子序列可以表示為 shape 為[2,5,3]的 3 維張量,其中 2 表示句子個數, 5 表示單詞數量, 3 表示單詞向量的長度。

這裡只討論

三、四維張量,大於四維的張量一般應用的比較少,如在元學習(meta learning)中會採用五維的張量表示方法,理解方法與

三、四維張量類似,不再贅述。

四維張量在卷積神經網路中應用非常廣泛,它用於儲存特徵圖(feature maps)資料,格式一般定義為[b,ℎ,w,c],其中b表示輸入樣本的數量, ℎ/ w分別表示特徵圖的高/寬, c表示特徵圖的通道數, 部分深度學習框架也會使用[b, c, ℎ, w]格式的特徵圖張量,例如 pytorch。 資料是特徵圖的一種, 對於含有 rgb 3 個通道的彩色,每張包含了ℎ行 列畫素點,每個點需要 3個數值表示 rgb 通道的顏色強度,因此一張可以表示為[ℎ, w, 3]。

本文完全**於感謝原作者的完美工作,這是tf2.0的內容,超級棒。我只是用jupter notebook學習一遍,供本文和大家參考。

TensorFlow2 1張量排序

排序函式tf.sort 用法 tf.sort values,axis 1 direction ascending name none 引數說明 排序的座標tf.argsort 返回張量的索引,該張量給出沿軸的排序順序。用法 tf.argsort values,axis 1 direction asc...

Tensorflow2 0張量生成

tensorflow 1 tensor就是張量,多維陣列,多維列表,階表示張量的維數 dimension 維數階 名字例子 0 d標量scalar s 1 2 3 1 d向量vector v 1,2,3 2 d矩陣matrix m 1,2,3 4,5,6 7,8,9 n dn 張量tensor t ...

tensorflow犯錯記錄1(張量使用)

舉例 1 少了,號分隔符 錯誤 結果如下 張量的形狀 import tensorflow as tf tens1 tf.constant 1,2,2 2,2,3 3,5,6 5,4,3 7,0,1 9,1,9 11,12,7 1,3,14 name tens1 語句中包含 或 括號,中間換行的就不需...