直觀理解GAN公式含義,直擊靈魂

2021-10-03 05:35:24 字數 3175 閱讀 1278

1.gan是幹什麼的

gan於2023年goodfellow提出,提出的出發點&創新點是:

①我們能不能通過深度學習生成?

我們通過generative adversarial network [對抗生成網路]生成。gan的型別 是一種「方**」而不是網路結構 ,既可以用於與nn結合,也可以與cnn結合。

②如何解決?

生成器:generatior

決策器:discriminator

理解這兩個結構有助於後面的公式推導,也就是說:

2.理解gan的價值函式

2.1如何直觀理解公式

min ⁡g

max⁡dv

(d,g

)=ex

−pda

ta(x

)[lo

gd(x

)]+e

z−pz

(z)[

log(

1−d(

g(z)

))

]\min_\max_v(d,g) = e_(x)}[logd(x)] +e_(z)}[log(1-d(g(z)))]

gmin​d

max​v(

d,g)

=ex−

pdat

a​(x

)​[l

ogd(

x)]+

ez−p

z​(z

)​[l

og(1

−d(g

(z))

)]value function【價值函式】這個概念來自於強化學習(reinforcement learning),這裡不多說,簡而言之它的意思是:在狀態t下通過觀測自己的狀態而做出乙個決策,這個決策使得t+1時刻進入新的狀態,而這種轉移帶來的收益記作reward(r1, r2, r3…rt)。狀態結束時我們希望value function收益最大。

這裡說乙個形象的小故事。

小天家祖傳三代鑑賞師,從小家裡就培養他接觸家族事業——成為最偉大的discriminator。從他還不會說話的時候就讓他學習鑑賞,大量瀏覽贗品於真跡,未來的生活裡,他鑑別成功的次數越多,他賺的錢就越多,reward越多。這是小天家的理念。

小華家祖傳三代仿製大師,一生坑人無數,從小家裡就培養他接觸家族手藝,成為偉大的——generator。從還不會走路就開始學習製作仿品,未來的生活中,製作的仿品一旦被發現就要坐牢甚至被追殺,富貴險中求,越少被拆穿,reward越多,這是小華家的理念。

**gan就是為了生成以假亂真的樣品,如果我們頂級的discriminator都鑑別不出generator生成的fake image,那麼才算成功的gan。**所以這裡用value function 表示目的是為了獲取最大收益就可以形象的理解了

2.2分析gan公式細節——max部分

補充:公式中的 x 表是真品; z 表示雜訊;d(x)表示真品概率;g(z)表示通過雜訊生成的贗品;

我們希望得到最大的v,對於d(鑑別師,以下都簡稱d):

對於王牌判別器d

f (n

)d(x) &->&1\\ d(g(x))&->&0 \end => \begin log(d(x)) &->&0\\ log( 1-d(g(x)) ) &->&0 \end

f(n)

^\infty xf(x)

e(x)=∫

−∞∞​

xf(x

)所以e x−

pdat

a(x)

[log

d(x)

]=∫x

pdat

a(x)

∗log

d(x)

dx

e_(x)}[logd(x)]=\int_ p_(x)*logd(x)dx

ex−pda

ta​(

x)​[

logd

(x)]

=∫x​

pdat

a​(x

)∗lo

gd(x

)dxex−

pz(x

)[lo

g(1−

d(g(

z)))

]=∫x

pz(z

)∗lo

gd(z

)d

ze_(x)}[log(1-d(g(z)))]=\int_ p_(z)*logd(z)dz

ex−pz​

(x)​

[log

(1−d

(g(z

)))]

=∫x​

pz​(

z)∗l

ogd(

z)dz

結合上述兩個式子,目標是將g(z)->x ;生成得g(z)能夠符合x原畫的分布。

v =∫

x[pd

ata(

x)∗l

ogd(

x)+p

g(x)

log(

1−d(

x))]

dx

v =\int_ [p_(x)*logd(x) + p_log(1-d(x))] dx

v=∫x​[

pdat

a​(x

)∗lo

gd(x

)+pg

(x)​

log(

1−d(

x))]

dx3總結min⁡g

max⁡dv

(d,g

)=ex

−pda

ta(x

)[lo

gd(x

)]+e

z−pz

(z)[

log(

1−d(

g(z)

))

]\min_\max_v(d,g) = e_(x)}[logd(x)] +e_(z)}[log(1-d(g(z)))]

gmin​d

max​v(

d,g)

=ex−

pdat

a​(x

)​[l

ogd(

x)]+

ez−p

z​(z

)​[l

og(1

−d(g

(z))

)]

貝葉斯公式的直觀理解 先驗概率 後驗概率

前言 以前在許學習貝葉斯方法的時候一直不得要領,什麼先驗概率,什麼後驗概率,完全是跟想象脫節的東西,今天在聽喜馬拉雅的音訊的時候突然領悟到,貝葉斯老人家當時想到這麼一種理論前提可能也是基於一種人的直覺.先驗概率 是指根據以往經驗和分析得到的概率.1 意思是說我們人有乙個常識,比如骰子,我們都知道概率...

貝葉斯公式的直觀理解 先驗概率 後驗概率

前言 以前在許學習貝葉斯方法的時候一直不得要領,什麼先驗概率,什麼後驗概率,完全是跟想象脫節的東西,今天在聽喜馬拉雅的音訊的時候突然領悟到,貝葉斯老人家當時想到這麼一種理論前提可能也是基於一種人的直覺.先驗概率 是指根據以往經驗和分析得到的概率.1 意思是說我們人有乙個常識,比如骰子,我們都知道概率...

貝葉斯公式的直觀理解 先驗概率 後驗概率

前言 以前在許學習貝葉斯方法的時候一直不得要領,什麼先驗概率,什麼後驗概率,完全是跟想象脫節的東西,今天在聽喜馬拉雅的音訊的時候突然領悟到,貝葉斯老人家當時想到這麼一種理論前提可能也是基於一種人的直覺.先驗概率 是指根據以往經驗和分析得到的概率.1 意思是說我們人有乙個常識,比如骰子,我們都知道概率...