深度學習問題積累中。。。

2021-10-04 18:21:29 字數 306 閱讀 1576

為什麼用交叉熵代替二次代價函式

感覺其實主要就兩點:

深層表示帶來的高階語義

單層雖也可以擬合任意函式,但是相對而言參數量指數級上公升,太大,且不好訓練

為什麼神經網路選擇了「深度」?

單層神經網路、多層感知機、深度學習的總結

吳恩達深度學習筆記(24)-為什麼要使用深度神經網路?

詳解機器學習中的梯度消失、**原因及其解決方法

出現梯度消失和梯度**的原因及解決方案

訓練深度神經網路失敗的罪魁禍首不是梯度消失,而是退化

一文讀懂深度學習與機器學習的差異

深度學習 日常小點積累

描述 比如將乙個3乘3的卷積換為乙個3乘1的卷積 乙個1乘3的卷積。特點 減少參數量 在哪見到 學習factorization into small convolutions的思想,將乙個二維卷積拆分成兩個較小卷積,例如將7 7卷積拆成1 7卷積和7 1卷積。這樣做的好處是降低參數量。中指出,通過這...

深度學習中的數值計算問題

連續數學在數字計算機上的根本困難 我們需要通過有限數量的位模式來表示無限多的實數。計算機在表示實數時總會引入一些近似誤差,這些捨入誤差會導致上溢和下溢問題。舉例 softmax函式 sof tmax x i exi jn exj softmax x frac e softma x x i jn ex...

深度學習系統中的log問題

在訓練模型的過程中,總會進行調參工作。原則上是,讓機器跑,人抽身出來,做更愉悅身心的事。此時,就可以想辦法把調參過程中的引數保留下來,等事後再來觀察結果,分析結論。那麼有什麼打log的方法呢?1.首先是利用第三方工具,logging,去打log。但這種方法要求你在 中要定義相應的logging。比如...