Pytorch框架學習(11) 優化器

2021-10-02 19:31:27 字數 961 閱讀 2314

pytorch的優化器:管理並更新模型中可學習引數的值,使得模型輸出更接近真實標籤

基本方法

optim.sgd:隨機梯度下降法

optim.adagrad:自適應學習率梯度下降法

optim.rmsprop:adagrad的改進

optim.adadelta:adagrad的改進

optim.adam:rmsprop結合momentum

optim.adamax:adam增加學習率上限

optim.sparseadam:稀疏版adam

optim.asgd:隨機平均梯度下降

optim.rprop:彈性反向傳播

10.optim.lbfgs:bfgs的改進

w1 = torch.randn((2

,2), requires_grad=

true

)w2 = torch.randn((2

,2), requires_grad=

true

)w3 = torch.randn((2

,2), requires_grad=

true

)w1.grad = torch.ones((2

,2))

optimizer = optim.sgd(

[w1]

, lr=

0.01

, momentum=

0.9)

optimizer.add_param_group(

)optimizer.add_param_group(

)print

("optimizer.param_groups is\n{}"

.format

(optimizer.param_groups)

)

執行結果:

[,,

]

pytorch 深度學習框架

定義網路 net net 定義資料 資料預處理,1.轉為tensor,2.歸一化 transform transforms.compose transforms.totensor transforms.normalize 0.5 0.5 0.5 0.5 0.5 0.5 訓練集 trainset to...

深度學習框架 PyTorch(一)

pytorch是基於python的開源深度學習框架,它包括了支援gpus計算的tensor模組以及自動求導等先進的模組,被廣泛應用於科學研究中,是最流行的動態圖框架。pytorch的運算單元叫作張量tensor。我們可以將張量理解為乙個多維陣列,一階張量即為一位陣列,通常叫作向量vector 二階張...

pytorch框架學習(12) 學習率調整策略

主要方法 1.steplr 調整方式 lr lr gamma 2.multisteplr 調整方式 lr lr gamma milestones 50 125 160 scheduler lr optim.lr scheduler.multisteplr optimizer,milestones,g...