多顯示卡伺服器指定顯示卡執行tensorflow程式

2021-10-09 08:08:00 字數 843 閱讀 5705

檢視機器上gpu情況

命令: nvidia-smi

功能:顯示機器上gpu的情況

其中左上側有0、1、2、3的編號,表示gpu的編號,在後面指定gpu時需要使用這個編號。

方法一:在終端執行程式時指定gpu

cuda_visible_devices=1   python  your_file.py

這樣在跑你的網路之前,告訴程式只能看到1號gpu,其他的gpu它不可見

可用的形式如下:

cuda_visible_devices=1           only device 1 will be seen

cuda_visible_devices=0,1         devices 0 and 1 will be visible

cuda_visible_devices="0,1"       same as above, quotation marks are optional

cuda_visible_devices=0,2,3       devices 0, 2, 3 will be visible; device 1 is masked

cuda_visible_devices=""          no gpu will be visible

方法二:在python**中指定gpu

import os

os.environ["cuda_visible_devices"] = "0"

Tensorflow指定顯示卡GPU執行

有些工作站配備了不止一塊顯示卡,比如4路泰坦。tensorflow會預設使用第0塊gpu,而以tensorflow為backend的keras會預設使用全部gpu資源。有時候有多個人需要跑實驗,如果乙個人占用了全部gpu,其他人就不能跑了。因此需要能夠指定使用特定的gpu。具體地,只需要在主 的開頭...

伺服器nvida顯示卡驅動安裝(親測)

一.準備工作 顯示卡驅動要對應系統版本和顯示卡版本 檢視系統版本 uname a 或者cat proc version 57 18.04.1 ubuntusmp thu oct 15 14 04 49 utc 2020 x86 64 x86 64 x86 64 gnu linux 檢視顯示卡資訊 二...

命令檢視Linux伺服器記憶體 CPU 顯示卡使用情況

使用命令 free m 大致結果類似下圖 引數解釋 mem行 單位均為m total 記憶體總數 used 已使用記憶體數 free 空閒記憶體數 shared 當前廢棄不用 buffers 快取記憶體數 buffer cached 快取內舒數 page buffers cache 行 buffer...