softmax 回歸的簡潔實現

2021-10-05 03:30:28 字數 1174 閱讀 9441

匯入所需包和模組

import torch

from torch import nn

from torch.nn import init # 初始化模組

import numpy as np

import sys

".."

)import d2lzh_pytorch as d2l

定義模型

# 定義超引數

num_inputs, num_outputs, num_hiddens =

784,10,

256net = nn.sequential(d2l.flattenlayer(),

# 改變x的形狀

nn.linear(num_inputs, num_hiddens)

, nn.relu(),

# 使用relu啟用函式

nn.linear(num_hiddens, num_outputs),)

for params in net.parameters():

init.normal_(params, mean=

0, std=

0.01

)# 初始化引數

讀取資料,訓練模型

batch_size =

256# 設定批量大小為256

train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size)

loss = torch.nn.crossentropyloss(

)optimizer = torch.optim.sgd(net.parameters(

), lr =

0.5)

num_epochs =

5# 迭代週期為5

Softmax回歸練習

整個流程包括以下四部分 1 定義演算法公式,也就是神經網路的forward時的計算 y softmax w.tx b 2 定義損失函式 h y y log y 並制定優化器 梯度下降 3 迭代的對資料進行訓練 4 在測試集或驗證集上對準確率進行評測 import tensorflow as tf 匯...

SoftMax回歸詳解

損失函式 梯度下降法求引數 omega b bb 實現與 logistic 回歸的關係 重點 關係 求導的關係 重點 from sklearn import datasets import numpy as np iris datasets.load iris 載入鳶尾花資料集 x iris dat...

深度學習基礎 實現Softmax回歸

matplotlib inline import d2lzh as d2l from mxnet import gluon,init from mxnet.gluon import loss as gloss,nn 在給出 之前,先介紹一下該資料集。fashion mnist資料集是比mnist資料...