Deep Learning的基本思想

2021-09-09 01:57:32 字數 900 閱讀 3231

假設我們有乙個系統s,它有n層(s1,…sn),它的輸入是i,輸出是o,形象地表 示為: i =>s1=>s2=>…..=>sn => o,如果輸出o等於輸入i,即輸入i經過這個系統變化之後沒有任何的資訊損失(呵呵,大牛說,這是不可能的。資訊理論中有個「資訊逐層丟失」的說法(資訊處 理不等式),設處理a資訊得到b,再對b處理得到c,那麼可以證明:a和c的互資訊不會超過a和b的互資訊。這表明資訊處理不會增加資訊,大部分處理會丟 失資訊。當然了,如果丟掉的是沒用的資訊那多好啊),保持了不變,這意味著輸入i經過每一層si都沒有任何的資訊損失,即在任何一層si,它都是原有資訊 (即輸入i)的另外一種表示。現在回到我們的主題deep learning,我們需要自動地學習特徵,假設我們有一堆輸入i(如一堆影象或者文字),假設我們設計了乙個系統s(有n層),我們通過調整系統中參 數,使得它的輸出仍然是輸入i,那麼我們就可以自動地獲取得到輸入i的一系列層次特徵,即s1,…, sn。

對於深度學習來說,其思想就是對堆疊多個層,也就是說這一層的輸出作為下一層的輸入。通過這種方式,就可以實現對輸入資訊進行分級表達了。

另外,前面是假設輸出嚴格地等於輸入,這個限制太嚴格,我們可以略微地放鬆這個限制,例如我們只要使得輸入與輸出的差別盡可能地小即可,這個放鬆會導致另外一類不同的deep learning方法。上述就是deep learning的基本思想。

深度學習的實質,是通過構建具有很多隱層的機器學習模型和海量的訓練資料,來學習更有用的特 徵,從而最終提公升分類或**的準確性。因此,「深度模型」是手段,「特徵學習」是目的。區別於傳統的淺層學習,深度學習的不同在於:1)強調了模型結構的 深度,通常有5層、6層,甚至10多層的隱層節點;2)明確突出了特徵學習的重要性,也就是說,通過逐層特徵變換,將樣本在原空間的特徵表示變換到乙個新 特徵空間,從而使分類或**更加容易。與人工規則構造特徵的方法相比,利用大資料來學習特徵,更能夠刻畫資料的豐富內在資訊。

deep learning書的閱讀

最近堅持讀書,雖然大多數讀的都是一些閒書,傳記 歷史或者散文之類的書籍,但是也讀了點專業書。閒書是散時間讀的,放車裡,有時間就拿起來讀讀,專業書則更多的靠得是專注。因為我給自己的規定是一定時間內讀完幾本書。deep learning這本書讀到第四章了,耐心讀完前面,覺得其實我還是蠻有收穫的,作者主要...

深度學習Deep Learning

概述 deep feedforward network 深度前饋網路 又名feedforward neural network 前饋神經網路 或 multilayer perceptron 多層感知器 是深度學習模型的精髓 前饋網路的目的是逼近某種方程f 比如乙個分類器,y f x 將輸入x對映到類...

DeepLearning 應用概述

利用卷積的目標篩選功能,用在視覺識別領域。現在此領域好用的網路基本上全部基於cnn,核心都是卷積。迴圈神經網路用於語音識別於自然語言處理。相較於 cnn 在影象識別和檢測方面的廣泛應用,基於序列模型的 rnn 的應用方面則是語音識別 文字翻譯和自然語言處理等其他更為激動人心的領域。所以,正如 cnn...