模型壓縮學習筆記

2021-10-10 10:43:10 字數 488 閱讀 8930

一、剪枝

拆除網路當中某些引數的方法如下:

1.剪掉權重weight約等於0的weight,讓兩個神經元之間失去連線

2.檢視某個神經元經過activation之後的輸出是否接近於零,如果接近於零,則剪掉這個神經元

3.在修剪完整個網路之後,識別的準確度肯定會下降,我們這時保留之前訓練好的權重,再利用訓練集訓練一次,更新當前神經網路的引數

4.技巧:不要在一次修建當中修建過多的引數,不然的話神經網路很難恢復到之前的準確度

二、知識蒸餾

知識蒸餾的核心就是用大的神經網路帶著小的神經網路去訓練。也就是我們預訓練乙個teacher net,這個模型是比較符合我們預期的。再將神經網路修剪之後得到乙個student net,或者自定義乙個student net,用teacher net帶著student net去訓練。也就是我們給student net和teacher net同樣的輸入,而loss則是衡量teacher net和student net之間的不同。

深度學習模型壓縮

1 引入1 1的卷積降維 inception v1 例如googlenet,假設輸入是28 28 192的feature map,1 1的channel是64,3 3的channel是128,5 5的channel是32 在左圖被3個 不同尺寸的卷積核卷積之後,參數量是1 1 192 64 3 3 ...

深度學習模型壓縮

前言 目前在深度學習領域分類兩個派別,一派為學院派,研究強大 複雜的模型網路和實驗方法,為了追求更高的效能 另一派為工程派,旨在將演算法更穩定 高效的落地在硬體平台上,效率是其追求的目標。複雜的模型固然具有更好的效能,但是高額的儲存空間 計算資源消耗是使其難以有效的應用在各硬體平台上的重要原因。最近...

深度學習 模型壓縮 PaddleSlim

paddleslim是乙個模型壓縮工具庫,包含模型剪裁 定點量化 知識蒸餾 超參搜尋和模型結構搜尋等一系列模型壓縮策略。對於業務使用者,paddleslim提供完整的模型壓縮解決方案,可用於影象分類 檢測 分割等各種型別的視覺場景。同時也在持續探索nlp領域模型的壓縮方案。另外,paddleslim...