GPU監測時問題解決

2021-08-18 03:55:27 字數 666 閱讀 3177

不管在我們使用伺服器還是使用自己的桌面版本的時候,跑程式時一方面,有時候我們會監測一下電腦的資源使用情況,但是監測的時候我們可以能會遇到一些問題。

對於cpu資源的使用,我們可以使用top或者使用更高階的htop指令進行監測,這個裡面包含了很多的資訊。

對於gpu資源的使用,我們一般使用nvidia-smi來進行乙個監測,因為該指令是乙個靜態的,所以如果我們想動態的監測gpu的使用情況,我們可以配合watch指令進行使用,watch -n 1 nvidia-smi.

以上是我們使用一些基本方法,但是我在監測gpu的時候,可能會遇到以下兩個問題:

1、gpu明明沒有在用,但是顯示的時候卻顯示gpu的利用率卻很高,但是再看功率的時候又可以肯定gpu並沒有在使用;

2、當乙個使用者用gpu跑完程式後,關掉了程式,但是gpu依舊顯示該程式占用記憶體。

針對以上的兩個問題,本人的解決方法如下

對於gpu監測顯示不準確時的指令如下:

sudo nvidia-smi -pm 1
對於程式結束了,但是gpu記憶體沒有被清零的情況,解決方案如下:

使用nvidia-smi指令進行查詢沒有釋放記憶體的程式的pid;

然後使用如下指令進行釋放:

sudo kill -9 pid

oom問題解決

dalvik虛擬機會為應用程式分配固定大小的heap 如果使用超過了這個heap的大小,且沒有可被 物件,就會報oom。多張較大會迅速占用空間造成oom。我們可以使用一下的方法來減少這種情況的產生 1.減少單張的大小,根據螢幕大小來對bitmap做resize。private void setima...

too many open files問題解決辦法

今天用 往liunx中寫檔案,檔案很多 執行一會就日誌上就報錯 too many open files 結果找了半天才解決這個問題,現在給大家分享一下。首先用 ulimit a 命令看看linux的open files值是多少,結果乙隻有1024,不夠用的。然後修改linux的配置檔案,修改 etc...

haoop問題解決

1.namenode不能啟動 cannot lock storage tmp dfs name.the directory is already locked.上網查了查,基本上有兩個辦法 1.重新格式化namenode 2.許可權問題 chown r hadoop hadoop tmp dfs n...