神經網路實踐

2021-10-14 00:13:58 字數 568 閱讀 7748

inst2vec的實驗中,有許多難以理解的資料處理操作

比如,對資料進行shuffle,對引數進行l2正則化,截斷地產生正態分佈隨機數,對bias置為0,

**難以理解的原因:

取樣上的策略,對為何採用這樣的策略不是很清楚

各種引數的影響:flags的鍋

tensorflow api的影響:tensorflow中tensor的形狀

疑點:在從rec檔案中讀取檔案內容之後,進行map可以理解,之後進行shuffle時,傳入的引數int(1e5)是什麼含義?

往下,input_data區域,next[:, 0]和next[:, 1]分別是代表什麼?

正常的shape表示都應該是小括號,為什麼tf.reshape在傳引數的時候,shape是乙個中括號括住的list?

另外還是這兩行**,rec檔案這樣乙個二進位制檔案的內容可以用vim讀出來,但這又是什麼含義?

tensorflow的圖定義和執行分離,參考部落格

神經網路 卷積神經網路

這篇卷積神經網路是前面介紹的多層神經網路的進一步深入,它將深度學習的思想引入到了神經網路當中,通過卷積運算來由淺入深的提取影象的不同層次的特徵,而利用神經網路的訓練過程讓整個網路自動調節卷積核的引數,從而無監督的產生了最適合的分類特徵。這個概括可能有點抽象,我盡量在下面描述細緻一些,但如果要更深入了...

神經網路 卷積神經網路

1.卷積神經網路概覽 來自吳恩達課上一張,通過對應位置相乘求和,我們從左邊矩陣得到了右邊矩陣,邊緣是白色寬條,當畫素大一些時候,邊緣就會變細。觀察卷積核,左邊一列權重高,右邊一列權重低。輸入,左邊的部分明亮,右邊的部分灰暗。這個學到的邊緣是權重大的寬條 都是30 表示是由亮向暗過渡,下面這個圖左邊暗...

神經網路實踐1 MLPCliassifier

2019 01 02 前幾天就已經用sklearn試過這個資料集,最後也無疾而終,這次算是一次比較完整的測試了多層感知機的演算法。而且通過自己知道的一些內容進行了引數的調優。本篇隨筆用來記錄這次實踐。這部分的實踐參過過另外乙個人的部落格 3 整體上這次實踐的過程並不是很困難,其 現的一些問題讓我比較...