pytorch基礎用法

2021-10-23 12:54:16 字數 1119 閱讀 9114

1. 

# 把x0和x1的資料合在一起,宣告是什麼型別的資料集

x = torch.cat((x0, x1), 0).type(torch.floattensor) # shape (200, 2) floattensor = 32-bit floating

y = torch.cat((y0, y1), ).type(torch.longtensor) # shape (200,) longtensor = 64-bit integer

2. 

對於回歸問題常用的損失函式有:均方誤差(mse),平均絕對值誤差(也稱l1損失)等。

對於分類問題,常用的損失函式則為交叉熵(cross entropy loss)。

交叉熵本質上描述的是兩個概率分布的距離,即實際概率與期望概率之間的距離。這就不難理解:

交叉熵的值越小,兩個概率分布就越接近,也就是**值越接近期望值。

3. load資料

torch_dataset = data.tensordataset(x, y)  # 告訴資料庫訓練資料是x, 計算loss的target是y

loader = data.dataloader(

dataset=torch_dataset,

batch_size=5,

shuffle=true, # 需不需要打亂資料順序去訓練

num_workers=2, # 提取的執行緒和程序數??

) # 使我們的訓練值變成一小批一小批的

3. 生成當前的準確時間和時間戳

now = datetime.datetime.now(dateutil.tz.tzlocal())  # 生成當前的日期和時間

timestamp = now.strftime('%y_%m_%d_%h_%m_%s') # 生成時間戳

output_dir = '../output/%s_%s_%s' % \

(cfg.dataset_name, cfg.config_name, timestamp)

pytorch基礎函式

返回乙個張量,從標準正態分佈 均值為0,方差為1 中抽取的一組隨機數。張量的形狀由引數sizes定義。import torch import torch.nn.functional as f x1 torch.tensor 1,2,3,4 1,3,4,5 3,4,5,6 y11 f.softmax ...

Pytorch基礎操作

import torch import numpy as np x torch.empty 5,3 print x 初始化乙個隨機矩陣 x torch.zeros 5,3,dtype torch.long print x 構建乙個全0矩陣 x x.new ones 5,3,dtype torch.d...

pytorch基礎練習

colab自帶pytorch,是不是很方便!順便,感謝xzy和mds大佬提供的幫助 參考部落格 我猜一定有人想要 吧 import torch x torch.empty 5,3 print x 建立乙個沒有初始化的矩陣 y torch.rand 5,3 print y 建立乙個隨機初始化的矩陣 z...