Tensorboard 訓練過程中的資料視覺化

2021-10-01 09:47:26 字數 1495 閱讀 2365

作業系統:centos7.0

gpu:quadro p5000

tensorflow:1.10

cuda version: 10.1

python3.6.2

使用tensorboard的基本思想是:在tensorflow程式裡輸出smmary到某個目錄,然後用啟動tensorboard,指定剛才的目錄。tensorboard通過web服務形式提供http訪問服務。通過任意瀏覽器訪問檢視資料。

啟動tensorboard:

python3 /usr/local/python3/lib/python3.6/site-packages/tensorboard/main.py --host 192.168.1.254 --logdir=/home/hda/src/logs

其中:「 /usr/local/python3/lib/python3.6/」是python3的安裝目錄,根據自己計算機替換

–host 192.168.1.254 ip位址根據自己計算機替換

–logdir=/home/hda/src/logs 這個目錄是tensorflow程式中輸出summary的日誌目錄,根據自己實際**替換

如果在執行tensorflow的計算機上直接像檢視,–host 192.168.1.254 可以去掉。然後再同一臺電腦的瀏覽器裡訪問 http://localhost:6006 即可。

如果打算用同一區域網上的其它電腦檢視資料,則必須加如 --host 引數,然後再其它電腦的瀏覽器裡訪問 http://[ip]:6006

如果是centos則,預設情況下6006埠可能未開放,需要在防火牆裡增加6006埠:

tensorflow例子關鍵**:

路徑定義,用於上面命令中  --logdir

summary_path = "./logs/"

定義要記錄的張量

tf.summary.scalar("loss", cost)

每個訓練迭代迴圈裡寫入

merged_summary = tf.summary.merge_all()

summary_writer1 = tf.summary.filewriter(summary_path+"trainloss", tf.get_default_graph())

batch_cost, _, summary = session.run([cost, optimizer, merged_summary], feed)

summary_writer1.add_summary(summary, current_epoch)

summary_writer1.flush()

上述**只是乙個完整程式中的部分關鍵**。

訓練過程 GPU訓練

為什麼y2b的8m,8張普通tt為啥要跑幾個月?因為gpu其實有60 的時間都是在等待資料填充完成,簡直蠢。1 換個固態硬碟試試?沒用。問題出在系統匯流排上,一幀的資料量入視訊記憶體後有1.58g 當前最優的分布式訓練方式是通過引數伺服器 parameter server 執行的同步隨機梯度下降演算...

Adaboost 訓練過程

每個haar特徵對應看乙個弱分類器,但並不是任伺乙個haar特徵都能較好的描述人臉灰度分布的某一特點,如何從大量的haar特徵中挑選出最優的haar特徵並製作成分類器用於人臉檢測,這是adaboost演算法訓練過程所要解決的關鍵問題。paul viola和michael jones於2001年將ad...

Q learning訓練過程

下面的偽 說明了我們如何訓練,來得到乙個盡量完美的q 初始化 q while q 未收斂 初始化小鳥的位置s,開始新一輪遊戲 while s 死亡狀態 使用策略 獲得動作a s 使用動作a進行遊戲,獲得小鳥的新位置s 與獎勵r s,a q s,a 1 q s,a r s,a max q s a 更新...