第3次作業 卷積神經網路

2022-07-10 02:30:17 字數 1119 閱讀 7352

1. 機器學習中的數學基礎;2.機器學習三要素:模型、策略、演算法。3.卷積神經網路的基本組成:卷積;池化;全連線。卷積神經網路的典型結構。

應用: 分類、檢索、檢測、分割 人臉識別,影象生成影象風格轉化… 損失函式用來衡量吻合度。 傳統神經網路與之區別: 全連線網路:引數太多:權重矩陣的引數太多,造成過擬合(泛化性差) 卷積神經網路:乙個神經元連線區域性塊 區域性關聯,引數共享 相同之處:分層 1.卷積 是對兩個實變函式的一種數學操作。 輸入,卷積核,權重,感受野,特徵圖,歩長(不夠就零填充) 特徵圖大小:(n-f)/stride+1 n為輸入 f為卷積 stride歩長 有padding則為:(n+padding *2-f)/stride+1 卷積的視覺化理解: 2.池化 保留特徵同時減少引數和計算量 防過擬化 分為最大值池化和平均值池化 3.全連線 兩層間所有神經元都有權重連線 一般在卷積神經網路尾部 典型結構: alexnet: relu函式解決梯度消失問題,計算速度快,收斂速度快於sigmoid dropout:防止過擬 隨機關閉部分神經元 測試時整合所有神經元 資料增強:平移、翻轉、對稱 卷積- relu -池化 zfnet:網路結構與alexnet相同 vgg: 增加了層數 錯誤率降低 googlenet: 參數量少,層數多 inception模組?公升級主要為了減少引數數量 v3:用小的卷積核代替 resnet: 殘差的思想

第3次作業 卷積神經網路

特徵向量和秩的講解思路很不一樣,好神奇啊!這次學過概率了,能看懂的終於多了一點點tat,似然函式取最大值來估算引數是因為,其為樣本事件的理論概率,事件發生,那麼取理論上發生概率最大的那個情況,因此可以使用極大似然策略對模型引數進行優化。全連線網路的引數太多,容易過擬合,卷積神經網路通過滑動視窗並且引...

神經網路 卷積神經網路

這篇卷積神經網路是前面介紹的多層神經網路的進一步深入,它將深度學習的思想引入到了神經網路當中,通過卷積運算來由淺入深的提取影象的不同層次的特徵,而利用神經網路的訓練過程讓整個網路自動調節卷積核的引數,從而無監督的產生了最適合的分類特徵。這個概括可能有點抽象,我盡量在下面描述細緻一些,但如果要更深入了...

神經網路 卷積神經網路

1.卷積神經網路概覽 來自吳恩達課上一張,通過對應位置相乘求和,我們從左邊矩陣得到了右邊矩陣,邊緣是白色寬條,當畫素大一些時候,邊緣就會變細。觀察卷積核,左邊一列權重高,右邊一列權重低。輸入,左邊的部分明亮,右邊的部分灰暗。這個學到的邊緣是權重大的寬條 都是30 表示是由亮向暗過渡,下面這個圖左邊暗...