week1 張量的操作與線性回歸

2021-10-10 08:03:09 字數 1679 閱讀 1091

功能:將張量按維度dim進行拼接。

引數:功能:在新建立的維度dim進行拼接

引數:

注:stack會擴充張量的維度,cat不會改變張量的維度

功能:將張量按維度dim進行平均切分

返回值:張量列表

**注:**若不能整除,最後切分出來的張量會小於其他的張量。不能整除的時候,張量的維度是向上取整的。最後切分完的維度相加要等於被切分的張量維度。

引數:功能:將張量按維度dim進行切分

返回值:張量的列表

引數:功能:在維度dim上,按index索引資料

返回值:依index索引資料拼接的張量

注:index是乙個tensor的時候,資料dtype只能是torch.long型別。

功能:在mask中的ture進行索引

返回值:一維張量

引數:

注:t = torch.randint(0, 9, size=(3, 3))

mask = t.ge(5)

t_select = torch.masked_select(t, mask)

ge是大於等於5;gt大於;le小於等於;lt小於

功能:變換張量形狀

注:當張量在記憶體中是連續時,新張量與input共享資料記憶體

引數:

注:shape為-1的時候表示該維度的大小由程式自己計算。

t = torch.randperm(8)

t_reshape = torch.reshape(t, (-1, 2, 2))

功能:交換兩個張量的維度

引數:

注:常用在影象預處理中,有時候讀取是c×h×w,要轉為h×w×c,只能相鄰維度轉換

功能:2維張量轉置,對矩陣而言,等價於

torch.transpose(input,0,1)

功能:壓縮長度為1的維度(軸)

引數:功能:依據dim擴充套件維度

一、加減運算

二、對數,指數,冪函式

三、三角函式

功能:逐元素計算input+alpha×other

引數:

注:torch.addciv()加法除法

​ torch.addcmul() 加法乘法

[外鏈轉存失敗,源站可能有防盜煉機制,建議將儲存下來直接上傳(img-xcmyvimk-1604730036592)(f:\xn\學習筆記\深度之眼\1.jpg)]

求解步驟:

1.確定模型

​ model :y = wx + b

2.選擇損失函式

​ mse = [外鏈轉存失敗,源站可能有防盜煉機制,建議將儲存下來直接上傳(img-ywn2yozb-1604730036598)(f:\xn\學習筆記\深度之眼\2.jpg)]

3.求解梯度並更新w,b:

​ w = w-lr*w.grad

.確定模型

​ model :y = wx + b

2.選擇損失函式

​ mse = [外鏈轉存中…(img-ywn2yozb-1604730036598)]

3.求解梯度並更新w,b:

​ w = w-lr*w.grad

b = b-lr*w.grad

PyTorch學習筆記1 張量

pytorch中資料集用tensor來表示,tensor與python中的list類似,但是其內部儲存時以連續記憶體單元儲存,可以通過下標計算出記憶體位址,然後直接讀出數值,因此訪問效率很高,同時由於與numpy的記憶體儲存基本相同,所以numpy的ndarray與tensor之間轉換,不論有多少元...

tensorflow犯錯記錄1(張量使用)

舉例 1 少了,號分隔符 錯誤 結果如下 張量的形狀 import tensorflow as tf tens1 tf.constant 1,2,2 2,2,3 3,5,6 5,4,3 7,0,1 9,1,9 11,12,7 1,3,14 name tens1 語句中包含 或 括號,中間換行的就不需...

深度學習準備(1) 張量

中文 張量 英文 tensor 數學上,把一維陣列叫向量 帶有方向的數量,線性代數有這個概念 把二維陣列叫矩陣 像矩形的乙個形狀,古代把一群士兵組成的方陣,叫陣 由於,矩形這個詞語被占用了,就發明了這個詞兒 三維,三維以上陣列,就叫張量,也叫做多維陣列 張量計算,就是多維陣列計算 另外,一般化之後的...