後向傳播:優化函式:
1.梯度下降(pytorch使用autograd)
2.批量梯度下降(多個資料集組成乙個批次,在進行梯度下降)
3.隨機梯度下降(選取部分資料集)
tensor運算:
1.abs 絕對值
2.add 相加
3.clamp 裁剪(input, max, min)
4.div 每個元素逐個求商
5.mul 求積
6.pow(input, num) 求冪
7.mm 矩陣點乘
torch.nn:
torch.nn.linear:線性函式
torch.nn.relu:啟用函式 (其他啟用函式:prelu、leakyrelu、tanh、sigmoid、softmax;
torch.nn.mseloss:均方誤差函式
torch.nn.l1loss:平均絕對誤差
torch.nn.crossentropyloss:交叉熵
torch.nn.conv2d:用於搭建卷積神經網路的卷積層 (input, output, size, strikde, padding,)輸入通道數(整型) 輸出通道數(整型) 核卷積大小(整型) 卷積核移動步長(整型) paddingde:0 邊界不填充,大於0,填充該數量層數的邊界 單位:畫素
torch.nn.maxpool2d:用於實現卷積神經網路中的最大池化層引數同上
torch.nn.dropout:用於防止過擬合 設定隨機概率值(如不設定預設為0.5)
torch.optim(優化函式):
torch.optim.adam(parameters, lr) parameters:模型引數 lr:學習速率
其他優化函式:sgd、adagrad、rmsprop等
torchversion:
torch.transforms(隸屬torchversion,提供對載入資料的變換)
1.torchvision.transforms.compose對操作的儲存容器
2.torchvision.transforms.normalize(mean, std) 資料標準化變換 變化後符合標準正態分佈 x = (x-mean)/std
3.torchvision.transforms.resize(h,w)/(m) 整體縮放m倍 或者縮放至高為h 寬為w的影象
4.torchvision.transforms.scale 同上
6.torchvision.transforms.randomcrop 隨機裁剪 引數同上
7.torchvision.transforms.totensor 把資料轉換成tensor資料
8.torchvision.transforms.topilimage 把tensor轉
torch.utils.data.dataloader(dataset, batch_size, shuffle)裝載資料 dataset資料集 batch_size資料大小 shuffle 是否打亂順序
pytorch 深度學習
pytorch深度學習實踐 訓練集 開發集 模型評估 測試集。f x wx b f x wx b f x w x bloss 乙個樣本 cost mean square error training set 區域性最優,不一定全域性最優。鞍點 梯度為0,但無法繼續迭代。w w c ost ww w ...
深度學習入門之PytoRch 一 深度學習發展歷史
2 學習本書之前建議 我們一提到人工智慧就會想到機械人,其實機械人只是人工智慧的容器,沒有這個容器也是可以的,可以將人工智慧分為三個方面 1 弱人工智慧 比如戰勝全世界的al phago,它只會下象棋,但是辨識一下貓和狗的話,他就不知道怎麼做 2 強人工智慧 就是人類能幹的腦力活動,它全部都能幹 3...
深度學習 PyTorch實戰計算機視覺2
搭建的模型是否發生過擬合或者欠擬合可作為評價模型擬合程度好壞的指標。欠擬合和過擬合地模型 新資料地準確性都不理想,最顯著的區別就是欠擬合的模型對已有資料地匹配性很差,但是對雜訊不敏感 而過擬合的模型對資料的匹配性太好,對雜訊很敏感。舉例 上圖為已有的房屋面積與 的關係資料。上圖就是乙個欠擬合模型。雖...