深度學習筆記(24) 深度雲列印

2022-09-15 10:51:19 字數 1039 閱讀 9691

今天老陌測試深度雲列印,弄了10多分鐘沒連上後來發現防火牆給攔截了。為了積累經驗,老陌記錄一下測試的過程。深度雲列印由伺服器端(windows作業系統)和客戶端(深度作業系統)組成,伺服器端和客戶端需要分別進行配置。

首先這兩台電腦在同乙個區域網內,一台是windows,一台是deepin。

深度雲列印的伺服器安裝程式整合在深度作業系統的映象檔案中,只需要使用壓縮軟體解壓即可進行安裝。老陌的系統映象已經寫到u盤裡了(啟動盤),插上u盤,找到深度雲列印的安裝檔案:deepincloudprintserverinstaller_1.0.0.1.exe,雙擊安裝就可以了。

安裝完之後,啟動深度雲列印服務,會彈出如下介面:

程式會自動檢測出ip位址,授權碼預設是deepin,可以修改之後更新。

在啟動器中找到深度雲列印,單擊開啟:

輸入windows主機的ip(就是自動檢測出來的ip)和授權嗎,之後下一步。

此時我們會發現目標主機所連線的印表機,單擊+號設定完成。

老陌用wps測試的:

在列印時,選擇剛新增的雲印表機,開始列印。

後來不斷的嘗試發現是windows防火牆的給攔截了,關掉解決。

官方管理員 21wmd 給出的更詳細的解決方案

點雲深度學習

參考部落格 研究背景 我們周圍的世界是三維,三維研究可以讓機器更好地感知周圍環境。有效的三維特徵表示是實現點雲配準 三維模型重建 三維形狀檢索 場景語義分割等視覺任務的基礎。三維資料表示 point cloud polygonal meshes volumetric multi view image...

深度學習筆記(24) 卷積層

乙個典型的卷積神經網路的卷積層,而通常有三層 首先介紹的是卷積層conv,從conv的向前傳播開始 前向傳播中乙個操作就是 z 1 w 1 a 0 b 1 其中 a 0 x 執行非線性函式得到 a 1 即 a 1 g z 1 這裡的輸入是a 0 也就是x,這些過濾器用變數 w 1 表示 在卷積過程中...

深度學習筆記

在深度神經網路中,通常使用一種叫修正線性單元 rectified linear unit,relu 作為神經元的啟用函式。relu函式其實是分段線性函式,把所有的負值都變為0,而正值不變,這種操作被成為單側抑制。可別小看這個簡單的操作,正因為有了這單側抑制,才使得神經網路中的神經元也具有了稀疏啟用性...