深度學習 12 DL平台GPU分配

2021-08-01 12:37:13 字數 1283 閱讀 6251

本說明只適用於gpu視訊記憶體分配,以及如何使用指定使用某個gpu。

要同時使用多gpu計算時,tensorflow需要自己修改**,theano需要安裝libgpuarrary(還沒安裝成功)

theano:

例子:

theano_flags='device=gpu0,lib.cnmem=0.1'

python test.py

說明:

device=gpu0,表示使用id號為0的gpu,要使用其他gpu,只需更改後面的數字。

lib.cnmem=0.1,表示使用gpu所有視訊記憶體的10%,cnmem需要額外安裝。

python test.py,表示執行test.py

tensorflow:

tensorflow預設使用所有gpu的視訊記憶體,如果想要使用某個gpu,那麼在命令前加入cuda_visible_devices指定使用gpu id號。比如,啟用2號gpu,執行test.py:

cuda_visible_devices=2 python test.py
tensorflow也可以限制使用視訊記憶體大小,不過在沒有指定使用哪個gpu的情況下,所設定的使用百分比是針對所有gpu的視訊記憶體的百分比。 設定方法如下:

py

import tensorflow as tf

gpu_options = tf.gpuoptions(per_process_gpu_memory_fraction=0.1)#視訊記憶體的10%

tf.session(config=tf.configproto(gpu_options=gpu_options))

caffe:

在caffe模型上訓練,使用命令:

/home/research/hjimce/caffe/build/tools/caffe train -solver gender_solver.prototxt -gpu

0

其中-gpu是gpu選擇命令,上面是選擇id 0號顯示卡進行計算。如果要用多顯示卡計算採用:-gpu all

其他要執行程式時,建議檢視一下gpu的使用情況,然後酌情分配gpu資源。

在終端檢視gpu使用情況:

nvidia-smi
另外,以上深度學習平台中設定的gpu id號,與nvidia-smi顯示的gpu id號的相反的。比如invidia-smi顯示的3個gpu的id分別為:0,1,2。那麼,在上述深度學習平台中所設定的gpu id號分別對應於:2,1,0。

DL 01 深度學習 揭開DL的神秘面紗

什麼是深度學習 深度學習 深度神經網路 機器學習 人工智慧 機器學習 表示學習 深度學習 神經元模型 輸入訊號 加權求和 加偏置 啟用函式 輸出 全連線層 輸入訊號 輸入層 隱層 多個神經元 輸出層 多個輸出,每個對應乙個分類 目標函式 交叉熵 待求的引數 連線矩陣w 偏置b 訓練方法 隨機梯度下降...

DL 16 深度學習架構清單

1.alexnet alexnet 是首個深度架構,它由深度學習先驅 geoffrey hinton 及其同僚共同引入。alexnet 是乙個簡單卻功能強大的網路架構,為深度學習的開創性研究鋪平了道路。實現 2.vgg net vgg 網路由牛津視覺化圖形組 visual graphics grou...

深度學習DL中優化方法總結

本文僅對一些常見的優化方法進行直觀介紹和簡單的比較,各種優化方法的詳細內容及公式只好去認真啃 了,在此我就不贅述了。此處的sgd指mini batch gradient descent,關於batch gradient descent,stochastic gradient descent,以及 m...