機器學習,深度學習,神經網路,深度神經網路

2022-01-14 22:04:40 字數 1465 閱讀 9231

先來說一下這幾者之間的關係:人工智慧包含機器學習,機器學習包含深度學習(是其中比較重要的分支)。深度學習源自於人工神經網路的研究,但是並不完全等於傳統神經網路。所以深度學習可以說是在傳統神經網路基礎上的公升級。神經網路一般有輸入層->隱藏層->輸出層,一般來說隱藏層大於2的神經網路就叫做深度神經網路,深度學習就是採用像深度神經網路這種深層架構的一種機器學習方法。

神經網路與深度神經網路的區別在於隱藏層級,通常兩層或兩層以上隱藏層的網路叫做深度神經網路。

在神經網路與深度神經網路之間,深度神經網路要優於神經網路,因為對某個特定問題而言,隱藏層越多,精確度越高。在其他許多任務和領域中同樣可以觀察到這個現象。

深度學習是機器學習研究中的乙個新的領域,其動機在於建立、模擬人腦進行分析學習的神經網路。它模仿人腦的機制來解釋資料,例如影象,聲音和文字,是無監督學習的一種。

這就好比乙個被清空記憶的人重新開始認知世界,你不能直接告訴他他自己是誰,但是只要給了他足夠的資訊他就能自己發明和領悟新的資訊。

簡單的說:深度學習就是如何讓機器能夠自己掌握學習能力。

深度學習的演算法又分很多種,比較典型的四種:卷積神經網路 — cnn, 迴圈神經網路 — rnn, 生成對抗網路 — gans, 深度強化學習 — rl

我們以卷積網路為例。

卷積神經網路是人工神經網路的一種,已成為當前語音分析和影象識別領域的研究熱點。它的權值共享網路結構使之更類似於生物神經網路,降低了網路模型的複雜度,減少了權值的數量。該優點在網路的輸入是多維影象時表現的更為明顯,使影象可以直接作為網路的輸入,避免了傳統識別演算法中複雜的特徵提取和資料重建過程。

全鏈結dnn的結構裡下層神經元和所有上層神經元都能夠形成連線,帶來了引數數量的膨脹問題。例如,1000*1000的畫素影象,光這一層就有10^12個權重需要訓練。此時我們可以用卷積神經網路cnn,對於cnn來說,並不是所有上下層神經元都能直接相連,而是通過「卷積核」作為中介。同乙個卷積核在所有影象內是共享的,影象通過卷積操作後仍然保留原先的位置關係。影象輸入層到隱含層的引數瞬間降低到了100*100*100=10^6個 。

卷積網路是為識別二維形狀而特殊設計的乙個多層感知器,這種網路結構對平移、比例縮放、傾斜或者共他形式的變形具有高度不變性。

卷積網路在本質上是一種輸入到輸出的對映,它能夠學習大量的輸入與輸出之間的對映關係,而不需要任何輸入和輸出之間的精確的數學表示式。其優點在於權重共享策略減少了需要訓練的引數,相同的權重可以讓濾波器不受訊號位置的影響來檢測訊號的特性,使得訓練出來的模型的泛化能力更強;池化運算可以降低網路的空間解析度,從而消除訊號的微小偏移和扭曲,從而對輸入資料的平移不變性要求不高。

參考:知乎郵電君

深度學習 深度神經網路

神經網路是由乙個個神經元相互連線並按層次排列構成的,深度神經網路是有任意層的神經網路,這裡的深度是指層次的多,而不是神經元數量的多。有任意層,那麼就要有乙個迴圈來負責遍歷每一層進行計算。所以深度神經網路的計算形式,就必須要適應這個迴圈結構。我們先來說說神經元吧 對於多神經元神經網路,其實也是一樣的。...

深度學習和神經網路 深度學習概論

1.什麼是神經網路 深度學習是指訓練神經網路的這個過程,那麼神經網路是什麼,我們可以從房價 的例子說起 前提是你的有乙個資料集,假設這個資料集中包含有六棟房子的資訊 面積和房屋 這時,你想要擬合乙個根據房屋面積 房價的函式.我們假設擬合如下圖所示的直線.作為乙個神經網路,這可能是最簡單的神經網路.我...

(pytorch 深度學習)深度迴圈神經網路

迴圈神經網路只有乙個單向的隱藏層,在深度學習應用裡,我們通常會用到含有多個隱藏層的迴圈神經網路,也稱作深度迴圈神經網路。下圖演示了乙個有l ll個隱藏層的深度迴圈神經網路,每個隱藏狀態不斷傳遞至當前層的下一時間步和當前時間步的下一層。具體來說 第1隱藏層的隱藏狀態和之前的計算一樣 h t 1 xtw...