pytorch多卡並行模型的儲存與載入

2021-10-01 03:24:49 字數 376 閱讀 1649

當模型是在資料並行方式在多卡上進行訓練的訓練和儲存,那麼載入的時候也是一樣需要是多卡。並且,load_state_dict()函式的呼叫要放在dataparallel()之後,而model.cuda()所在的位置無影響。

model = definednetwork(

)model = torch.nn.parallel.dataparallel(model, device_ids =[0

,1])

model.load_state_dict(torch.load(

"model_best.pth"))

model.

eval()

model.cuda(

)

伺服器多卡並行

伺服器是8卡的,說好了我用後4張,具體怎麼用呢,現google吧。為啥要用呢,因為報錯 runtimeerror cuda out of memory.tried to allocate 20.00 mib gpu 0 10.73 gib total capacity 1.03 gib alread...

pytorch 多GPU訓練(單機多卡 多機多卡)

首先是資料集的分布處理 需要用到的包 torch.utils.data.distributed.distributedsampler torch.utils.data.dataloader torch.utils.data.dataset distributedsampler這個包我們用來確保dat...

pytorch 多卡訓練碰到的問題及解決方案

1 多卡訓練後模型命名多了 module.這樣在讀取模型的時候需要新增關鍵字名 下面用乙個模型讀取的函式舉例,核心部分是 changed 部分 def load params from file v2 model,filename,opt none,to cpu false if not os.pa...