深度學習基礎知識(六) 神經網路基礎之損失函式

2021-10-22 04:57:06 字數 1582 閱讀 4836

3.1定義

​ 對當前輸出y和訓練樣本的預期值之間的誤差的計算,進而用於修正函式的各種引數(如前面線性回歸中的w和z)。

​ 損失函式也常被稱為誤差函式。

​ 損失函式的計算結果越**明引數越準確。

3.2 常見的損失函式

l1 loss:

mse loss:

cross entropy loss:

kl散度loss:

kl散度又叫相對熵,與交叉熵的關係有kld

(p∥q

)=ce

(p,q

)−h(

p)

kld(p\|q)=ce(p,q)-h(p)

kld(p∥

q)=c

e(p,

q)−h

(p),其中p

pp是真實分布,cece

ce是交叉熵,資訊熵h(p

)=

plog⁡(

p)

h(p)=p\log(p)

h(p)=p

log(p)

huber loss:

又叫平滑l1損失(smooth l1 loss)。

3.3成本函式

​ a.定義:即乙個訓練集中所有樣本的損失函式輸出值σ

σσ的平均值,用於衡量當前模型的引數的準確性。平均值越小,引數越準確。

​ b.公式:

j (ω

,b)=

1m∑i

=1mσ

(y^(

i),y

(i))

=−1m

∑i=1

n[y(

j)

log⁡y^

(i)+

(1−y

)log⁡(

1−y^

(j))

]j(\omega, b)=\frac \sum_^ σ\left(\hat^, y^\right)=-\frac \sum_^\left[y^ \log \hat^+\left(1-y\right) \log \left(1-\hat^\right) \right]

j(ω,b)

=m1​

i=1∑

m​σ(

y^​(

i),y

(i))

=−m1

​i=1

∑n​[

y(j)

logy^​

(i)+

(1−y

)log(1

−y^​

(j))

]損失函式與成本函式的區別:

損失函式(loss function)是定義在單個訓練樣本上的,也就是就算乙個樣本的誤差,比如我們想要分類,就是**的類別和實際類別的區別,是乙個樣本的哦,用l表示

代價函式(cost function)是定義在整個訓練集上面的,也就是所有樣本的誤差的總和的平均,也就是損失函式的總和的平均,有沒有這個平均其實不會影響最後的引數的求解結果。

神經網路基礎知識

1 前饋神經網路 前饋神經網路描述的是網路的結構,是指每一層的神經元只接受前一層神經元的輸入,並且輸出到下一層。2 bp神經網路 3 mlp mlp是多層感知機也被稱為多層神經網路,是一種前向結構,包括輸入層 隱藏層和輸出層。至少三層結構 即隱藏層只有一層網路 如圖所示 4 cnn cnn就是著名的...

神經網路基礎知識(神經網路簡介)

一 生物神經網路 神經元的排列和突觸的強度 由複雜的化學過程決定 確立了神經網路的功能。突觸有兩種型別,興奮性突觸和抑制性突觸。前者產生正突觸後電位,後者產生負突觸後電位。抑制性 神經元雖然接收到其他神經元傳遞的資訊,但沒有向外傳遞資訊,該神經元稱 抑制性 的 興奮性 當乙個神經元的樹突接收的興奮資...

(深度學習)神經網路基礎

一 神經網路定義 playground 通過這個位址了解神經網路 1.人工神經網路 artificial neural network,簡寫為ann 也簡稱為神經網路 nn 分別輸入層,輸出層以及隱藏層 2.特點 每個連線都有個權值,同一層神經元之間沒有連線,最後的輸出結果對應的層也稱之為全連線層 ...