網路中有很多神經元的輸出總是0,或者有某些權重非常接近0,那麼這些划水的就可以被去掉了.
修剪過程:評估\去除\再訓練
為什麼要修剪?而不是直接訓小的網路呢.
1.大的網路的區域性最優比較少,容易收斂
2.大樂透假設
大的網路設定了乙個隨機權重(#),通過訓練和修剪之後,得到了小的網路.
如果用乙個和該小網路相同結構的網路,並隨機設定初始權重,進行訓練,訓練就會失敗.
但是如果採用和原本大網路最開始時隨機採用的權重(即#標記的那個)相同的話,就能訓練出來.
也就是說大網路的隨機權重,可以看作一種**,恰好某個子網抽到了可以訓練的初始值
最好是剪掉神經元,因為剪掉權重後的網路往往是不規則的
一方面難以使用**等描述,另一方面不規整也會降低運算的速率
如果要剪掉權值,也最好是通過設零的方式,等效於剪掉
先使用資料集訓練乙個大的網路,然後再訓練乙個小的網路
小網路的訓練輸入不在是原始資料集,而是大網路的輸入和輸出結果.
也就是讓小網路去模擬大網路,因為teacher會提供比資料集更多的資料
為了縮小softmax結果之間的差距,其實沒啥用.
給出現頻率高的引數比較短的編碼,給出現頻率低的引數比較長的編碼.
就是訓練乙個權重只有+1,-1的網路
這個網路也許會很複雜,但是很好壓縮
兩種結構的參數量分別為 : nm 和 k(m+n)
如果控制k就能使得引數量變少
第一步中乙個濾波器只負責乙個頻道
第二步中再講各個頻道濾波結果綜合起來
減少了參數量(但代價是什麼呢),思想和上乙個知識點是一樣的
有點類似手機沒電了就會變慢的概念
在計算資源不足時,就減少一些計算量
1.做幾個網路,根據計算資源,決定走不同網路
2.做乙個網路,根據計算資源,決定走幾層再出結果
方法二會有一些***:
過早是的不到好結果的
硬要得到好結果也會違背卷積的初衷
(卷積的前幾層就是為了提取簡單特徵的,如果你硬讓它提取複雜特徵的話,會影響後面的結果,拔苗助長)
學習日誌 深度學習 李巨集毅 指標網路
需要解決的都是一些演算法問題,比如 在輸入點中選擇盡可能少的點,使這些點的連線能包住其他所有點 因為輸入和輸出都是序列,符合s2s的情景 但是有乙個問題 s2s在輸出的時候是在乙個範圍內做多道選擇題,也就是必須給出答案的範圍 當輸入的數量發生變化,超出訓練時的最大範圍之後,模型就失效了 拋棄了seq...
李巨集毅《深度學習》 深度學習簡介
深度學習分為三部分 定義一系列方程,計算方程的loss,然後選出最好的方程 深度學習神經網路類似於人類的大腦的神經網路,每個方程可以看做乙個神經元,不同神經元連線會產生不同結果,在這裡我們介紹一下fully connect feedforward network 每個神經元都與下一層全部的神經元連線...
學習日誌 深度學習 李巨集毅 優化器介紹
記錄的從第0步優化到第n步優化的步子 最簡單的,走一步看一步 還是走一步看一步,但是在走的每一步會受到之前所走過的步子的影響 下圖中的v 且越近的步子對當前步子的影響會越大 的次數會越來愈高 重要的優點 當本次梯度為零 梯度消失 後,上一步會保證繼續移動 有點類似慣性和動量的概念 優點就是控制步長,...