pycharm中使用GPU跑程式

2021-09-19 12:23:45 字數 1353 閱讀 8994

檢視機器上gpu情況

命令: nvidia-smi

功能:顯示機器上gpu的情況

命令: nvidia-smi -l

功能:定時更新顯示機器上gpu的情況

命令:watch -n 3 nvidia-smi

功能:設定重新整理時間(秒)顯示gpu使用情況

其中左上側有0、1、2、3的編號,表示gpu的編號,在後面指定gpu時需要使用這個編號。

在終端執行程式時指定gpu

cuda_visible_devices=1 python your_file.py

這樣在跑你的網路之前,告訴程式只能看到1號gpu,其他的gpu它不可見

可用的形式如下:

cuda_visible_devices=1 only device 1 will be seen

cuda_visible_devices=0,1 devices 0 and 1 will be visible

cuda_visible_devices="0,1" same as above, quotation marks are optional

cuda_visible_devices=0,2,3 devices 0, 2, 3 will be visible; device 1 is masked

cuda_visible_devices="" no gpu will be visible

以上內容我也沒看明白!,,,,然後我就試試了下邊的把**粘在python程式的開頭!然後就可以呼叫gpu了,不過我已經設定過gpu了,不知道為什麼測rbf.nn這個神經網路**時候,沒呼叫我的gpu!

在python**中指定gpu

import os

os.environ["cuda_device_order"] = "pci_bus_id"

os.environ["cuda_visible_devices"] = "0"

設定定量的gpu使用量

config = tf.configproto()

config.gpu_options.per_process_gpu_memory_fraction = 0.9 # 占用gpu90%的視訊記憶體

session = tf.session(config=config)

設定最小的gpu使用量

config = tf.configproto()

config.gpu_options.allow_growth = true

session = tf.session(config=config)

檢視機器上gpu情況

使用GPU跑程式

檢視機器上gpu情況 命令 nvidia smi 功能 顯示機器上gpu的情況 命令 nvidia smi l 功能 定時更新顯示機器上gpu的情況 命令 watch n 3 nvidia smi 功能 設定重新整理時間 秒 顯示gpu使用情況 其中左上側有0 1 2 3的編號,表示gpu的編號,在...

使用GPU跑程式

檢視機器上gpu情況 命令 nvidia smi 功能 顯示機器上gpu的情況 命令 nvidia smi l 功能 定時更新顯示機器上gpu的情況 命令 watch n 3 nvidia smi 功能 設定重新整理時間 秒 顯示gpu使用情況 其中左上側有0 1 2 3的編號,表示gpu的編號,在...

在Pycharm中使用GitHub

pycharm是當前進行python開發,尤其是django開發最好的ide。github是程式設計師的聖地,幾乎人人都在用。本文假設你對pycharm和github都有一定的了解,並且希望在pycharm下直接使用github的版本控制功能。廢話不多說,下面 詳解,全是乾貨。環境 pycharm ...