PyTroch網路構建引數與輸出速查

2021-10-01 09:22:38 字數 3100 閱讀 2380

只會列出常見方法和常用引數

module是所有模型的父類,因此以下方法中都是各個模型的通用方法

輸出

children()

與此對應的方法是named_children():返回的是字典,還有modules(),返回包括內層

cpu()/cuda()

eval()/train()

load_state_dict(state_dict, strict=true)

從乙個state_dict載入引數到模型之中,如果strict為true,則要求key嚴格對應

輸出

state_dict()方法:乙個moudle的parameters和buffers(無需反向更新的引數)

paramters()

name_parameters():輸出為字典

sequential接受乙個*args(不限長引數)的輸入,輸入為modules,將之連線起來稱為乙個新的模型

和常規的list與dict類似,方法基本相同,元素是module,沒有forward方法

同上,元素是parameter

conv1d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=true, padding_mode=『zeros』)

輸入:(n,

cin,

lin)

(n, c_,l_)

(n,cin

​,li

n​)

輸出:(n,

cout

,lou

t)

(n, c_, l_)

(n,cou

t​,l

out​

)

conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=true, padding_mode=『zeros』)

需要注意的是二維卷積的排列使用的是nchw排列的方式,keras預設的是nhwc,但是可以依據data_format引數修改

還有逆卷積和滑動視窗不常用

maxpool1d(kernel_size, stride=none, padding=0, dilation=1, return_indices=false, ceil_mode=false)

輸入:(n,

c,li

n)

(n, c, l_)

(n,c,l

in​)

輸出:(n,

c,lo

ut

)(n, c, l_)

(n,c,l

out​

)

maxpool2d(kernel_size, stride=none, padding=0, dilation=1, return_indices=false, ceil_mode=false)

其他的平均值池化等引數相同

嵌入層會將用index表示的詞語對映到d

dd維向量上去

embedding(num_embeddings, embedding_dim, padding_idx=none, max_norm=none, norm_type=2.0, scale_grad_by_freq=false, sparse=false, _weight=none)

輸入: 由index組成的tensor(n,

seq_

len)

(n, seq\_len)

(n,seq

_len

)輸出: (n,

seq_

len,

d)

(n, seq\_len, d)

(n,seq

_len

,d)

rnn(input_size, hidden_size, num_layers, nonlinearity=『tanh』, bias=true, batch_first=false, dropout=0, bidirectional=false)

輸入

輸出

基本和rnn一樣

輸出

batchnorm2d(num_features, eps=1e-05, momentum=0.1, affine=true, track_running_stats=true)

輸入: (n,

c,h,

w)

(n,c,h,w)

(n,c,h

,w)輸出: (n,

c,h,

w)

(n,c,h,w)

(n,c,h

,w)

一維的批歸一化和三維的引數和輸出類似

dropout(p=0.5, inplace=false)

dropout1d,dropout2d類似

relu(inplace=false)

雲端專有網路構建與管理

01計算機網路基礎 主要介紹計算機網路基本概念 七層網路和各層常見協議與裝置,以及虛擬區域網的相關知識。02雲上網路架構 主要介紹傳統資料中心和雲資料中心對網路架構的需求,以及雲計算網路架構設計知識。03雲上專有網路與經典網路 主要介紹雲上專有網路與經典網路的相關概念 區別和使用場景。04在雲端搭建...

網路優化與超引數選擇

可以認為與網路中的可訓練引數成正比。網路中的神經單元數越多,層數越多,神經網路的擬合能力越強。但是訓練速度 難度越大,越容易產生過擬合。所謂超引數,也就是搭建神經網路中,需要我們自己如選擇 不是通過梯度下降演算法去優化 的那些引數。比如,中間層的神經元個數 學習速率。一種顯然的想法是增大網路容量 1...

yolo網路引數的解析與儲存

參考 yolo網路分析 yolo v3 解析 yolo網路結構定義的cfg檔案 yolo中的網路採用和caffe差不多的方式。都是通過乙個順序堆疊layer對神經網路結構進行定義的檔案。區別在於 yolo採用自己定義的cfg檔案格式,需要自己實現解析功能。而caffe無需自己實現解析檔案的功能,但缺...