關於流形學習的重建問題

2021-08-28 13:19:27 字數 489 閱讀 9322

1,前饋網路是什麼?反向傳播,反向求導?之間的關係是什麼?

前饋神經網路就是根據乙個公式,然後輸入,就可以得到輸出,他是一種沒有反饋的網路。在這個過程中得到的是每一層的啟用值。並且在文章中給出了,使用不同的函式的時候,建議使用的參考數值。前饋網路是沒有反饋的,單向的

反向傳播,就是通過是代價函式最小化達到是求出w核b的作用,其中使用了求導。

2,關於網路的訓練,什麼是必要的,是不是有了卷積層和啟用層就可以了?還是說一定要加上分類的那一層?

關於matlab的trainnetwork()函式的使用。。。檢視一下。

3,對於反卷積實現的影象的復原的基本原理,以及實現,找乙個嘗試一下

4,關於regression layer,為什麼要在卷積層的後面加上regression layer呢?之前的網路是怎麼做的呢?

關於bn的介紹:

(這個裡面有大量的文章,了解到可以在github上看別人的作業

有點廢)

看一下這個:

流形學習(一)

1 什麼是流形?經常會在 裡看到 嵌入在高維空間中的低維流形 高維的資料對於我們總是難以想像,所以最直觀的例子通常都會是嵌入在三維空間中的二維或者一維流形。比如說一塊布,可以把它看成乙個二維平面,這是乙個二維的歐氏空間,現在我們 在三維 中把它扭一扭,它就變成了乙個流形 當然,不扭的時候,它也是乙個...

流形學習t SNE,LLE,Isomap

作者 andre ye 編譯 vk analytics indiamag 主成分分析是一種強大的方法,但它往往失敗,因為它假設資料可以線性建模。pca將新的特徵表示為現有特徵的線性組合,將每個特徵乘以乙個係數。為了解決主成分分析的侷限性,人們通過對具有不同結構的資料進行應用而產生了各種各樣的技術。然...

幾種流形學習演算法

區域性線性嵌入 lle 前提假設 取樣資料所在的低維流形在區域性是線性的,即每個取樣點可以用它的近鄰點線性表示。求解方法 特徵值分解。lle演算法 計算每乙個點xi的近鄰點,一般採用k近鄰或者 領域。計算權值wij,使得把xi用它的k個近鄰點線性表示的誤差最小,即通過最小化 xi wijxj 來求出...