pytorch線性回歸

2021-10-02 19:45:54 字數 1081 閱讀 9717

線性回歸假設輸出與各個輸入之間是線性關係:y = wx+b

pytorch定義線性回歸模型:

def

linreg

(x, w, b)

:return torch.mm(x, w)

+ b

線性回歸常用損失函式是平方損失

2優化函式 -隨機梯度下降

小批量隨機梯度下降(mini-batch stochastic gradient descent)在深度學習中被廣泛使用。它的演算法很簡單:先選取一組模型引數的初始值,如隨機選取;接下來對引數進行多次迭代,使每次迭代都可能降低損失函式的值。在每次迭代中,先隨機均勻取樣乙個由固定數目訓練資料樣本所組成的小批量(mini-batch) b ,然後求小批量中資料樣本的平均損失有關模型引數的導數(梯度),最後用此結果與預先設定的乙個正數的乘積作為模型引數在本次迭代的減小量。

pytorch 實現線性回歸的完整流程:讀取資料集

初始化模型引數

定義模型

定義損失函式

定義優化函式

模型訓練

pytorch 線性回歸

import torch from torch.autograd import variable import torch.nn.functional as f import matplotlib.pyplot as plt print torch.linspace 1,1,100 x torch....

Pytorch之線性回歸

import torch from torch import nn import numpy as np import torch.utils.data as data from torch.nn import init 使得模型的可復現性 torch.manual seed 1 設定預設的資料格式...

pytorch 線性回歸(Regression)

使用pytorch python實現回歸。程式 import torch import torch.nn.functional as f from matplotlib import pyplot as plt 建立資料 x torch.unsqueeze torch.linspace 1 1,10...