神經網路的小筆記

2021-09-12 03:48:46 字數 460 閱讀 6575

1.epoch和batch的區別

a.epoch是指模型的迭代次數,每乙個epoch是模型的一次迭代,使用整個資料集迭代一次

b.batch發生在一次epoch中,指的是每次引數更新僅使用batch_size個訓練樣本。一次epoch需要進行batch_num次,每次用batch_size個樣本進行更新(batch_num * batch_size = 訓練集樣本個數)

2.dropout為什麼可以防止過擬合

a.相當於多個神經網路投票或者「取平均」的作用。因為dropout以一定的概率隨機的去除網路中的神經元之間的連線,每個dropout網路結構都不相同,相當於多個不同的網路訓練得到的最終結果

b.減少神經元之間依賴關係。dropout操作,使得2個神經元每次不一定存在於乙個dropout網路,這樣權重的更新不再依賴於固定的關係的隱含節點的共同作用,阻止了某些特徵的有效是在其他特徵共現的情況下,這就迫使的網路更加的魯棒性。

神經網路筆記

感知機模型如下圖所示 輸入層接受多個二值輸入,輸出層提供乙個二值輸出 m p神經元 用數學公式來描述就是 y 0,1 jw jxj b 0 jwjx j b 0 這裡,y 是指輸出,xi 指輸入,wi 是輸入的權重,j 是輸入管腳個數,b是指偏移.多個感知機可以構成神經網路,如下圖 m p神經元的輸...

神經網路 卷積神經網路

這篇卷積神經網路是前面介紹的多層神經網路的進一步深入,它將深度學習的思想引入到了神經網路當中,通過卷積運算來由淺入深的提取影象的不同層次的特徵,而利用神經網路的訓練過程讓整個網路自動調節卷積核的引數,從而無監督的產生了最適合的分類特徵。這個概括可能有點抽象,我盡量在下面描述細緻一些,但如果要更深入了...

神經網路 卷積神經網路

1.卷積神經網路概覽 來自吳恩達課上一張,通過對應位置相乘求和,我們從左邊矩陣得到了右邊矩陣,邊緣是白色寬條,當畫素大一些時候,邊緣就會變細。觀察卷積核,左邊一列權重高,右邊一列權重低。輸入,左邊的部分明亮,右邊的部分灰暗。這個學到的邊緣是權重大的寬條 都是30 表示是由亮向暗過渡,下面這個圖左邊暗...