深度學習導論 讀李巨集毅《1天搞懂深度學習》

2022-07-04 12:57:10 字數 2699 閱讀 3579

先引用他人關於李巨集毅教授關於深度學習導論的ppt,應該非常容易入門。

」《1天搞懂深度學習》,300多頁的ppt,台灣李巨集毅教授寫的,非常棒。不誇張地說,是我看過最系統,也最通俗易懂的,關於深度學習的文章。「

密碼:3mty

廢話少說,先上乾貨,整個ppt的思維導圖如下:

作者非常淺顯的指出機器(深度)學習過程非常簡單,分為定義方法、判斷方法的優劣、挑選出最佳的方法。

對於深度學習,首先第一步定義方法 - 神經網路。深度學習顧名思義是指多層的神經網路。

神經網路的思想**於對於人腦的生理上的研究,人腦由數億個神經元組成,神經元通過軸突互相連線通訊。神經網路和人腦類似,存在多個層級(layer),每個層級都有多個節點(神經元),層級和層級之間相互連線(軸突),最終輸出結果。

對於神經網路的計算能力可以理解為通過一層層layer的計算歸納,逐步的將抽象的原始資料變的具體。以識別為例,輸入是乙個個畫素點,經過每層神經網路,逐步變化成為線、面、物件的概念,然後機器有能力能夠識別出來。

第二步,評估方法的優劣。

loss function是用於評估方法優劣,通常我們用學習出來的引數對測試資料進行計算,得出對應的**(y)然後和真實的測試資料的目標值(t)進行比對,y和t之間的差距往往就是loss。那麼評估乙個演算法的好壞,就是要盡可能的降低loss。

第三步,如何獲得最佳的學習方法

獲得最佳的學習是採用梯度下降演算法,作者也提到梯度下降演算法存在區域性最優解的問題。人們往往認為機器無所不能,實際上更像是在乙個地圖上面拓荒,對周邊一無所知。神經網路計算梯度的演算法是反向傳播演算法,簡稱bp。

作者首先指出越多的引數往往帶來越好的**能力,所以神經網路往往引數越多越好。那麼如果是同樣的引數情況下,為什麼層級較多的表現會更好呢?

作者認為深度網路可以帶來模組化的好處,隨著網路的層級,神經網路會將畫素元素逐漸歸納出一些基本的特徵,進而變成紋理,進而變成物件。

作者總結下來訓練過程中會發現了兩種情況:

1. 沒有辦法得到很好的訓練結果 ---》 重新選擇訓練方式

2. 沒有辦法得到很好的測試結果 ---》 往往由於過度擬合導致,需要重新定義方法

優化訓練方法的手段:

1. 選擇合適的loss function:使用cross entropy效果要優於mean square error

2. mini-batch: 每次訓練使用少量資料而不是全量資料效率更高

3. activation function:使用relu替代sigmoid可以解決梯度消失的問題,可以訓練更深的神經網路

4. adaptive learning rate:可以隨著迭代不斷自我調整,提高學習效率

5. momentum: 可以一定程度上避免陷入區域性最低點的問題

避免過度擬合(overfitting)的方法:

1. early stopping:使用cross validation的方式,不斷對validation data進行檢驗,一旦發現**精度下降則停止。

2. weight decay:引數正則化的一種方式?

3. dropout:通過隨機去掉一些節點的連線達到改變網路形式,所以會產生出多種網路形態,然後匯集得到乙個最佳結果

4. network structure: 例如cnn等其他形態的網路

通常情況下,乙個cnn包含多次的卷積、池化,然後flatten,最終再通過乙個深度神經網路進行學習**。cnn在影象、語音識別取得非常好的成績,核心的想法在於一些物體的特徵往往可以提取出來,並且可能出現在的任何位置,而且通過卷積、池化可以大大減少輸入資料,加快訓練效率。

rnn的想法是可以將hidden layer的資料儲存下來,然後作為輸入給下乙個網路學習。這種網路的想法可以解決自然語言中前後詞語是存在關聯性的,所以rnn可以把這些關聯性放到網路中進行學習。

reinforcement learning: 通過獎勵機制強化學習,並且做出相應的動作

unsupervised learning:

1. deep style

2. 生成

3. 無需人工介入理解文字的含義

李巨集毅《1天搞懂深度學習》筆記

準備入坑下深度學習啦,好好學習,天天向上嘎嘎 整個ppt的思維導圖如下,為深度學習導論 讀李巨集毅 1天搞懂深度學習 神經網路的思想 於對人腦生理上的研究。人類智慧型最重要的部分是大腦,大腦雖然複雜,它的組成單元卻是相對簡單的,大腦皮層以及整個神經系統,是由神經元細胞組成的。而乙個神經元細胞,由樹突...

300 頁乾貨!李巨集毅《一天搞懂深度學習》分享

1 前言 今天分享一下李巨集毅老師的 一天搞懂深度學習 ppt,分享給有需要的小夥伴。李巨集毅,分別於2010年和2012年在台灣台北國立台灣大學 ntu 獲得碩士和博士學位。2012年9月至2013年8月,研究院資訊科技創新研究中心博士後。2013年9月至2014年7月,擔任麻省理工學院電腦科學與...

李巨集毅《深度學習》 深度學習簡介

深度學習分為三部分 定義一系列方程,計算方程的loss,然後選出最好的方程 深度學習神經網路類似於人類的大腦的神經網路,每個方程可以看做乙個神經元,不同神經元連線會產生不同結果,在這裡我們介紹一下fully connect feedforward network 每個神經元都與下一層全部的神經元連線...