深度學習如何改進(三)

2021-09-27 10:55:23 字數 904 閱讀 2725

很多人認為人工智慧是乙個新興的技術,其實並不是這樣的,人工智慧從被提出到現在有了幾十年的時間,足以發現人工智慧的歷史悠久。而人工智慧中有乙個十分重要的內容,那就是深度學習。深度學習在人工智慧的發展下也經歷了很大的改進,我們在這篇文章中給大家介紹一下這些關於深度學習的內容。

深度學習中有很多東西是進行全連線網路的,很多人對於全連線網路的好處不是十分清楚的,全連線網路的好處是,最大程度讓整個網路節點不會漏掉。但是深度學習要處理的是萬級以上的海量資料,要對海量資料進行全連線處理,是一種非常重的模式,訓練過程中,收斂速度會很慢。而和卷積網路處理資料相比較而言,就是比較輕的模式,可以在訓練中,較少更新權重、明顯快於全連線網路地完成收斂。

卷積網路處理資料過程除了一般處理方式,也就是將所有卷積的資料彙總,還有池化層處理的方式。池化層處理,主要分為兩種路徑,一種是取最大值,一種是取平均值。無論是哪種路徑,目的都在於對資料進行又一次特徵提取,減少下一層的資料處理量,同時獲得相對抽象、模糊的資訊,提高泛化性,這些內容的目標是找到所有人的共性。當然,上面提到的池化層會對資訊進行模糊化處理,算是一種有失真壓縮。與之對應的,是整個卷積神經網路,在卷積核對輸入向量進行特徵提取的過程,這種過程就是將高維向量對映成低維向量,其實也是一種有失真壓縮。

到這裡,我們可以明白卷積神經網路可以解決什麼的問題了。卷積網路處理神經元通過權值共享加快訓練過程中的收斂速度,現在我們可以發現,卷積網路處理資料可以解決的另乙個問題:減少雜訊、訛誤對分類的影響。

在這篇文章中我們給大家介紹了很多關於卷積網路處理資料的知識,這些內容都是能夠幫助大家更好地理解深度學習的內容。卷積網路處理資料的方式其實也是十分明確的,同樣也是很簡潔的,這些就能夠減小差錯,得到乙個更加準確的結果。希望這篇文章能夠更好地幫助大家理解深度學習的知識。

深度學習如何改進(四)

在前面的文章中我們給大家介紹了很多關於深度學習改進的知識,相信大家應該對深度學習已經有了一定的了解了。深度學習改進中涉及到的知識點很多,比如神經網路知識 迴圈神經網路知識等。那麼在今天的這篇文章中,我們就給大家介紹一下迴圈神經網路的知識。那麼迴圈神經網路中需要解決什麼問題呢?其實就是上下文場景記憶的...

深度學習(三)

1 在調整超引數時,其中最終要的是 其次是動量 隱藏層單元以及mini batch,之後還可以調整層數跟學習率衰減 2 在深度學習中,隨機選擇引數的值可能更好一些,因為事先並不知道哪個引數相對比較重要,另乙個比較重要的原則是從粗略到精細,到大體確定了超引數的範圍,再在這個範圍內進行隨機取值,獲得更加...

深度學習 學習筆記三

1.回歸和分類都是有監督學習問題嘛?分類與回歸,這兩者都屬於監督學習的範疇,都是學習的方法。之所以會去兩個不同的名字,就是因為其對應的輸出值形式不同,僅此而已。對於回歸任務其輸出值是連續的實數值,而對於分類任務其輸出值為離散的類別數。因此這兩者的本質是一樣的,僅僅是輸出形式不同而已。當然由於其輸出形...