統計深度學習模型的引數和視訊記憶體占用(pytorch)

2021-10-01 16:10:39 字數 672 閱讀 3444

這裡介紹兩種方法

1、使用相關的庫torchsummary

from torchsummary import summary

net=net.to(torch.device("cpu"))#or cuda

summary(net,(4,228,912),device="cpu") #or cuda

統計結果比較詳細,參數量、浮點數計算量、中間變數、train的變數數、保持不變的變數數,每一層的中間變數和型別都會詳細列出

2、使用庫thop

from thop import profile

net=net.cuda()

input= torch.ones([1,4,128,128]).cuda()

inputs=

flops, params=profile(net,inputs)#,custom_ops=)

print("flops: ".format(flops))

print("parms:".format(params))

這個比較簡單,最後簡單的輸出參數量和其中的浮點計算次數

深度學習模型函式執行完畢後視訊記憶體不釋放問題解決方案

如下定義model predict 函式為呼叫深度學習模型 結果函式,返回介面列表,使用多執行緒的方法可以使得呼叫函式後釋放顯示卡,以便在同張顯示卡上呼叫第二個深度學習模型。具體 如下 import multiprocessing return dict用於函式返回值 defmodel predic...

深度學習的GPU型號和引數選擇

關於深度學習的nvidia的gpu加速網路訓練引數效能測試 英偉達rtx 30系列已出,有預算的,建議直接30系列了 深度學習注重的引數有兩個,分別是視訊記憶體頻寬和單精度浮點計算能力 這裡不考慮雙精度浮點計算能力 視訊記憶體頻寬計算涉及到的顯示卡引數 視訊記憶體位寬 位 視訊記憶體頻率 mhz 單...

機器學習中引數模型和非引數模型

網上關於機器學習中的引數模型和非引數模型之間的解釋並沒有乙個完全一致的解答,有從是不是對資料的分布做了相關假設進行分析的 也有是從模型的參數量大小進行解答的 二者好像是一致的,但是個人覺得如下使用是不是對資料分布進行了假設來區分並不是特別好理解。非引數模型 non parametric model ...