linux伺服器如何指定gpu以及用量

2021-08-31 13:33:27 字數 931 閱讀 2788

from: 

1.在終端執行程式時指定gpu   

cuda_visible_devices=0    python  your_file.py  # 指定gpu集群中第一塊gpu使用,其他的遮蔽掉

cuda_visible_devices=1           only device 1 will be seen

cuda_visible_devices=0,1         devices 0 and 1 will be visible

cuda_visible_devices="0,1"       same as above, quotation marks are optional 多gpu一起使用

cuda_visible_devices=0,2,3       devices 0, 2, 3 will be visible; device 1 is masked

cuda_visible_devices=""          no gpu will be visible

2.在python**中指定gpu

import os

os.environ["cuda_visible_devices"] = "0"   #指定第一塊gpu

3.設定定量的gpu使用量

config = tf.configproto() 

config.gpu_options.per_process_gpu_memory_fraction = 0.9 # 占用gpu90%的視訊記憶體 

session = tf.session(config=config)

4.設定最小的gpu使用量

config = tf.configproto() 

config.gpu_options.allow_growth = true 

session = tf.session(config=config)

如何檢視伺服器GPU狀態

gpu gpu 編號 name gpu 型號 persistence m 持續模式的狀態。持續模式雖然耗能大,但是在新的gpu應用啟動時,花費的時間更少,這裡顯示的是off的狀態 fan 風扇轉速,從0到100 之間變動 temp 溫度,單位是攝氏度 perf 效能狀態,從p0到p12,p0表示最大...

如何檢視伺服器GPU狀態

gpu gpu 編號 name gpu 型號 persistence m 持續模式的狀態。持續模式雖然耗能大,但是在新的gpu應用啟動時,花費的時間更少,這裡顯示的是off的狀態 fan 風扇轉速,從0到100 之間變動 temp 溫度,單位是攝氏度 perf 效能狀態,從p0到p12,p0表示最大...

GPU雲伺服器

您只需要專注於深度學習本身,無需安裝任何深度學習環境,零設定開啟您的深度學習之旅。極客雲,為深度學習而生,您只需簡單幾步操作即可測試和訓練您的模型。上傳的資料將會被掛載到 連線後伺服器的 data 目錄下 類似linux命令的使用方法 不要在 data追直接解壓,否則很慢 no module nam...