PyTorch筆記之 scatter 函式

2022-07-04 16:15:10 字數 2451 閱讀 9065

scatter()scatter_()的作用是一樣的,只不過 scatter() 不會直接修改原來的 tensor,而 scatter_() 會

pytorch 中,一般函式加下劃線代表直接在原來的 tensor 上修改

scatter(dim, index, src) 的引數有 3 個

這個 scatter  可以理解成放置元素或者修改元素

簡單說就是通過乙個張量 src  來修改另乙個張量,哪個元素需要修改、用 src 中的哪個元素來修改由 dim 和 index 決定

官方文件給出了 3維張量 的具體操作說明,如下所示

self[index[i][j][k]][j][k] = src[i][j][k]  #

if dim == 0

self[i][index[i][j][k]][k] = src[i][j][k] #

if dim == 1

self[i][j][index[i][j][k]]= src[i][j][k] #

if dim == 2

exmaple:

x = torch.rand(2, 5)

#tensor([[0.1940, 0.3340, 0.8184, 0.4269, 0.5945],

#[0.2078, 0.5978, 0.0074, 0.0943, 0.0266]])

torch.zeros(3, 5).scatter_(0, torch.tensor([[0, 1, 2, 0, 0], [2, 0, 0, 1, 2]]), x)

#tensor([[0.1940, 0.5978, 0.0074, 0.4269, 0.5945],

#[0.0000, 0.3340, 0.0000, 0.0943, 0.0000],

#[0.2078, 0.0000, 0.8184, 0.0000, 0.0266]])

具體地說,我們的 index 是 torch.tensor([[0, 1, 2, 0, 0], [2, 0, 0, 1, 2]]),乙個二維張量,下面用圖簡單說明

我們是 2維 張量,一開始進行 $self[index[0][0]][0]$,其中 $index[0][0]$ 的值是0,所以執行 $self[0][0] = x[0][0] = 0.1940$ 

再比如$self[index[1][0]][0]$,其中 $index[1][0]$ 的值是2,所以執行 $self[2][0] = x[1][0] = 0.2078$ 

src 除了可以是張量外,也可以是乙個標量

example:

torch.zeros(3, 5).scatter_(0, torch.tensor([[0, 1, 2, 0, 0], [2, 0, 0, 1, 2]]), 7)

#tensor([[7., 7., 7., 7., 7.],

#[0., 7., 0., 7., 0.],

#[7., 0., 7., 0., 7.]]

scatter()一般可以用來對標籤進行 one-hot 編碼,這就是乙個典型的用標量來修改張量的乙個例子

example:

class_num = 10batch_size = 4label = torch.longtensor(batch_size, 1).random_() %class_num

#tensor([[6],

#[0],

#[3],

#[2]])

torch.zeros(batch_size, class_num).scatter_(1, label, 1)

#tensor([[0., 0., 0., 0., 0., 0., 1., 0., 0., 0.],

#[1., 0., 0., 0., 0., 0., 0., 0., 0., 0.],

#[0., 0., 0., 1., 0., 0., 0., 0., 0., 0.],

#[0., 0., 1., 0., 0., 0., 0., 0., 0., 0.]])

PyTorch學習筆記之Variable

深度學習的演算法本質上是通過反向傳播求導數,pytorch的autograd模組實現了此功能。autograd.variable是autograd中的核心類,它簡單封裝了tensor,並支援幾乎所有tensor的操作。tensor在被封裝為variable之後,可以呼叫它的.backward實現反向...

PyTorch筆記之scatter 函式的使用

scatter 和 程式設計客棧scatter 的作用是一樣的,只不過 scatter 不會直接修改原來的 tensor,而 scatter 會 pytorch 中,一般函式加下劃線代表直接在原來的 tensor 上修改 scatter dim,index,src 的引數有 3 個 這個 scatt...

Pytorch學習筆記之通過numpy實現線性擬合

通過使用numpy庫編寫簡單的gradient descent資料位於附件之中 import torch from torch import autograd import numpy as np import matplotlib.pyplot as plt torch關於求導的簡單運用 x to...