tf學習小記

2021-10-07 15:04:37 字數 1000 閱讀 7163

keras.preprocessing.sequence.pad_sequences(sequences, 

maxlen=none,

dtype='int32',

padding='pre',

truncating='pre',

value=0.)

其中,

sequences:浮點數或整數構成的兩層巢狀列表

maxlen:none或整數,為序列的最大長度。大於此長度的序列將被截短,小於此長度的序列將在後部填0.

dtype:返回的numpy array的資料型別

padding:『pre』或『post』,確定當需要補0時,在序列的起始還是結尾補(預設為pre)

truncating:『pre』或『post』,確定當需要截斷序列時,從起始還是結尾截斷(預設為pre)

value:浮點數,此值將在填充時代替預設的填充值0

函式返回的是乙個二維張量。

舉個栗子:

test_list1=[[1,2,3,4]]

keras.preprocessing.sequence.pad_sequences(test_list1,maxlen=10)

輸出為array([[0, 0, 0, 0, 0, 0, 1, 2, 3, 4]]),可以看出缺省是在序列前面補充填充值預設值0。

# target data convert to one - hot

def processing_target(train_target, test_target, num_classes):

train_y = tf.one_hot(train_target, depth = num_classes)

test_y = tf.one_hot(test_target, depth = num_classes)

return train_y, test_y

TF學習筆記1

一 關於tensorflow的基本概念 tensorflow的計算模型 資料模型 執行模型,主要是一些理論概念的整理。1 tensorflow的計算模型 計算圖 tensor 張量,即可簡單理解為多維陣列,表明其資料結構。flow 流,直觀的表達了張量之間通過計算相互轉化的過程,體現其計算模型。te...

tf學習(四) 損失函式

經典的損失函式有四種,也可以自己定義損失函式 有幾種不同的代價函式,不同的代價函式適用於不同的場景 有二次代價函式,交叉熵代價函式 適用於s型曲線,選擇合適的代價函式,可節省訓練時間 對數似然代價函式 loss tf.reduce mean tf.square y prediction 計算公式如下...

ROS學習之TF變換

tf能夠根據時間緩衝並維護多個參考係之間的座標變換,可以在任意時間,將點 向量 等資料的座標,完成座標變換。tf的使用方法 兩個概念了解一下 監聽tf變換 接收並快取系統中發布的所有參考係變換,並從中查詢所需要的參考係變換。廣播tf變換 向系統中廣播參考係之間的座標變換關係。系統中更能可能會存在多個...