李巨集毅機器學習 11 為什麼要「深度」學習?

2022-09-10 20:54:27 字數 349 閱讀 8764

modularization 模組化

speech recognition

方法:tied-state: 不同tri-phone之間共享部分引數

侷限:phoneme的識別是相互獨立的,沒有利用它們之間的聯絡

dnn:

兩種方法的引數個數是差不多的

儘管一層hidden layer就足夠模擬任何函式,但是使用多層更簡單、高效

剪紙end-to-end learning

deep learning

deep也難以超過傳統方法

image recognition

deep learning

complex task

李巨集毅機器學習課程11 為何要 深 ?

為何要 深 pluskid的部落格 deep learning and shallow learning 模型有更多的引數會有更好的結果,這是毋庸置疑的。深瘦的模型會比淺胖的模型有更好的表達能力。雖然理論上單層網路可以表達任意的函式,但是實際上更深的結構在表達函式的能力更出色。細節見 a visua...

李巨集毅機器學習 8 深度學習初試

keras keras是希臘語中牛角的意思 horn 官網 例子 學習和使用更簡單 可以把模型儲存起來方便下次訓練,需要時再載入 mnist 簡單使用 定義乙個模型 model sequential 新增input layer和第一層hidden layer input是28 28的矩陣 第一層hi...

李巨集毅《深度學習》 深度學習簡介

深度學習分為三部分 定義一系列方程,計算方程的loss,然後選出最好的方程 深度學習神經網路類似於人類的大腦的神經網路,每個方程可以看做乙個神經元,不同神經元連線會產生不同結果,在這裡我們介紹一下fully connect feedforward network 每個神經元都與下一層全部的神經元連線...