自編碼與變分自編碼

2021-10-04 07:50:30 字數 755 閱讀 9703

神經網路的本質是資訊壓縮特徵提取,神經網路公式h = w * x , 做內積,所以神經網路是個相關性判斷

研究ai頂級公司研究損失。

無監督學習是在沒有資料標籤的情況下,尋找資料特徵。

但是無監督學習的標籤是自身,自監督學習,是無監督學習的一種特殊情況,他是將資料切分n塊,然後用各個塊來**其他塊。

弱監督學習,是將無監督和有監督結合,先用無監督學,使得網路有提取特徵能力,然後讓有監督學習去矯正,這樣少量資料矯正

就可以學習出來,更像人類的學習

深度學習中的無監督學習:

自編碼(autoencoder,ae), 輸入,還原出原,輸入(x, x),  均方差與輸入做損失。 可以做圖壓縮、圖加密,但是有失真。  如果輸入=輸出,那麼系統理解了知識,就是編譯碼

分布,一堆神經元的輸出,啟用函式是針對單個神經的約束。

讓輸出服從某種分布,然後在該分布中重取樣(標籤),採用標準正態分佈,做為輸入,傳入到解碼器中,從新得到新的輸出。

kl距離是唯一能衡量分布之間距離的公式,相對熵計算連續值(公式表示)的計算的距離才叫kl, 交叉熵來計算散點是離散點的距離

目前四種生成模型:

變分vae自編碼

gnn流模型flow

自回歸自編碼方式換人臉,換特徵,不是整個臉:

先找到人臉,mtcn追蹤人臉,把五官的特徵點拿到,然後把影象放到自編碼網路編碼階段,做特徵圖;然後把要替換的臉輸入進行編碼,找到人臉,五官的特徵點;然後在影象還原時,把特徵圖里拿到的特徵點替換掉(兩個特徵圖的矩陣運算)。 

變分自編碼VAE實戰

import tensorflow as tf from tensorflow.examples.tutorials.mnist import input data mnist input data.read data sets mnist data one hot true import matp...

變分自編碼器VAE

auto encoding variational bayes git antixk pytorch vae a collection of variational autoencoders vae in pytorch.1 原文作者在深度學習上的實戰理論指導 2 具體原理框圖如下 vae主要由編碼...

變分自編碼VAE模型理解

從暑假看到現在終於在 這篇文章 的幫助下搞懂了,期間看了無數的中文關於vae的部落格文章,乙個個基本上不是少講了這個就是少講了那個,最後總是搞不懂,還走了不少彎路,去研究變分推斷本身,其實只是為了看懂vae的原理,是不必深度了解變分推斷的。話不多說,說正題,這裡我只會講下大概,具體的請看原始文章。自...