pytorch中的loss函式(3) L1Loss

2021-10-04 05:04:01 字數 464 閱讀 8612

1、l1loss原理

l1loss計算**值和真實值的mean absolute error (mae,平均絕對值誤差)。 

其中:若是mean:先計算**值x與真實值y這兩個tensor中的對應位置的兩個元素的差的絕對值,得到乙個新的同樣大小的tensor,然後求這個tensor中所有元素的均值;

若是sum:先計算**值x與真實值y這兩個tensor中的對應位置的兩個元素的差的絕對值,得到乙個新的同樣大小的tensor,然後求這個tensor中所有元素的和;

2、使用l1loss進行多分類

2.1 資料來源以及如何打標籤

以mnist資料來源為例,共有10個分類。mnist中每張的標籤是0-9中的乙個數字。

2.2 模型訓練

2.2.1 模型搭建

l1loss層前一層輸出的特徵圖的大小必須是1*1,我們可以使用乙個out_features是1的linear層(全連線層)來實現。

pytorch自定義loss函式的幾種方法

1.讓張量使用variable 型別,如下所示 1 from torch.autograd import variable 23 inp torch.zeros 2,3 4 inp variable inp type torch.longtensor 5print inp variable型別包裝了...

caffe中各種loss函式

在有監督的機器學習中,需要有標籤資料,與此同時,也需要有對應的損失函式 loss function 在caffe中,目前已經實現了一些損失函式,包括最常見的l2損失函式,對比損失函式,資訊增益損失函式等等。在這裡做乙個筆記,歸納總結caffe中用到的不同的損失函式,以及分析它們各自適合的使用場景。輸...

pytorch中的gather函式

from 今天剛開始接觸,讀了一下documentation,寫乙個一開始每太搞懂的函式gather b torch.tensor 1,2,3 4,5,6 print bindex 1 torch.longtensor 0,1 2,0 index 2 torch.longtensor 0,1,1 0...