功能:將張量按維度dim進行拼接。
引數:功能:在新建立的維度dim進行拼接
引數:
注:stack會擴充張量的維度,cat不會改變張量的維度
功能:將張量按維度dim進行平均切分
返回值:張量列表
**注:**若不能整除,最後切分出來的張量會小於其他的張量。不能整除的時候,張量的維度是向上取整的。最後切分完的維度相加要等於被切分的張量維度。
引數:功能:將張量按維度dim進行切分
返回值:張量的列表
引數:功能:在維度dim上,按index索引資料
返回值:依index索引資料拼接的張量
注:index是乙個tensor的時候,資料dtype只能是torch.long型別。
功能:在mask中的ture進行索引
返回值:一維張量
引數:
注:t = torch.randint(0, 9, size=(3, 3))
mask = t.ge(5)
t_select = torch.masked_select(t, mask)
ge是大於等於5;gt大於;le小於等於;lt小於
功能:變換張量形狀
注:當張量在記憶體中是連續時,新張量與input共享資料記憶體
引數:
注:shape為-1的時候表示該維度的大小由程式自己計算。
t = torch.randperm(8)
t_reshape = torch.reshape(t, (-1, 2, 2))
功能:交換兩個張量的維度
引數:
注:常用在影象預處理中,有時候讀取是c×h×w,要轉為h×w×c,只能相鄰維度轉換
功能:2維張量轉置,對矩陣而言,等價於
torch.transpose(input,0,1)
功能:壓縮長度為1的維度(軸)
引數:功能:依據dim擴充套件維度
一、加減運算
二、對數,指數,冪函式
三、三角函式
功能:逐元素計算input+alpha×other
引數:
注:torch.addciv()加法除法
torch.addcmul() 加法乘法
[外鏈轉存失敗,源站可能有防盜煉機制,建議將儲存下來直接上傳(img-xcmyvimk-1604730036592)(f:\xn\學習筆記\深度之眼\1.jpg)]
求解步驟:
1.確定模型
model :y = wx + b
2.選擇損失函式
mse = [外鏈轉存失敗,源站可能有防盜煉機制,建議將儲存下來直接上傳(img-ywn2yozb-1604730036598)(f:\xn\學習筆記\深度之眼\2.jpg)]
3.求解梯度並更新w,b:
w = w-lr*w.grad
.確定模型
model :y = wx + b
2.選擇損失函式
mse = [外鏈轉存中…(img-ywn2yozb-1604730036598)]
3.求解梯度並更新w,b:
w = w-lr*w.grad
b = b-lr*w.grad
PyTorch學習筆記1 張量
pytorch中資料集用tensor來表示,tensor與python中的list類似,但是其內部儲存時以連續記憶體單元儲存,可以通過下標計算出記憶體位址,然後直接讀出數值,因此訪問效率很高,同時由於與numpy的記憶體儲存基本相同,所以numpy的ndarray與tensor之間轉換,不論有多少元...
tensorflow犯錯記錄1(張量使用)
舉例 1 少了,號分隔符 錯誤 結果如下 張量的形狀 import tensorflow as tf tens1 tf.constant 1,2,2 2,2,3 3,5,6 5,4,3 7,0,1 9,1,9 11,12,7 1,3,14 name tens1 語句中包含 或 括號,中間換行的就不需...
深度學習準備(1) 張量
中文 張量 英文 tensor 數學上,把一維陣列叫向量 帶有方向的數量,線性代數有這個概念 把二維陣列叫矩陣 像矩形的乙個形狀,古代把一群士兵組成的方陣,叫陣 由於,矩形這個詞語被占用了,就發明了這個詞兒 三維,三維以上陣列,就叫張量,也叫做多維陣列 張量計算,就是多維陣列計算 另外,一般化之後的...