學習Pytorch將要寫的內容

2022-09-23 11:03:12 字數 364 閱讀 4163

秉承一貫風格:先挖坑:

優先順序:

1. doc文件總結。(以及附加和torch的對比,寫在最後)

2. 對variable,parameter以及自動反向傳播的更深理解

3. 自定義反向傳播的寫法,以及注意點。包括擴充套件torch.autograd.function以及torch.nn.module

4. variable的一些注意事項

5. 自定義loss函式

6. 將論壇中的一些常見問題進行總結。

附加:# 可以將output中所有大於0.5的值都置為1,其餘的置為0

# 返回的是 bytetensor

output = (output > 0.5).mul_(1)

PyTorch學習1 PyTorch的基本資料型別

import torch import numpy as np a torch.randn 2,3 隨機初始化乙個2行3列的矩陣 print a print a.type torch.floattensor print type a print isinstance a,torch.floatten...

pytorch 學習遇到的 問題

relu 和 leaky relu 中 inplace 設定 nn.relu inplace true default inplace false nn.leakyrelu inplace true default inplace false 將計算得到的值直接覆蓋之前的值 有時能夠節省運算記憶體,...

Pytorch學習 張量的索引切片

張量的索引切片方式和numpy幾乎是一樣的。切片時支援預設引數和省略號。可以通過索引和切片對部分元素進行修改。此外,對於不規則的切片提取,可以使用torch.index select,torch.masked select,torch.take 如果要通過修改張量的某些元素得到新的張量,可以使用to...