神經網路 一些專業術語的理解

2021-10-07 15:23:23 字數 1866 閱讀 2572

cnn中feature map、卷積核、卷積核個數、filter、channel的概念解釋,以及cnn 學習過程中卷積核更新的理解

卷積核(kernels)與濾波器(filters)的關係

convolution卷積層之後是無法直接連線dense全連線層,需要把convolution層的資料壓平(flatten),然後就可以直接加dense層了。也就是把 (height,width,channel)的資料壓縮成長度為 height × width × channel 的一維陣列,然後再與 fc層連線,這之後就跟普通的神經網路無異了。

可以從圖中看到,隨著網路的深入,我們的影象(嚴格來說中間的那些不能叫影象了,但是為了方便,還是這樣說吧)越來越小,但是channels卻越來越大了。在圖中的表示就是長方體面對我們的面積越來越小,但是長度卻越來越長了。

一分鐘理解softmax函式(超簡單)

卷積神經網路的詳細計算過程 - jjyy1539的文章 - 知乎

cnn中卷積層的計算細節 - michael yuan的文章 - 知乎

在一些情況下,可以視為same補0取整,valid捨棄取整。

注意,same滿足湊整就可以,不一定跟原來一樣維度。

詳見 tensorflow padding之same和valid

深度學習面試題11:池化(same池化、valid池化、帶深度的池化)

step: 訓練模型的步數

batch size(批尺寸): 計算梯度所需的樣本數量,太小會導致效率低下,無法收斂。太大會導致記憶體撐不住,batch size增大到一定程度後,其下降方向變化很小了,所以batch size是乙個很重要的引數。

epoch(回合):代表樣本集內所有的資料經過了一次訓練。

iteration(迭代):迭代是 batch 需要完成乙個 epoch 的次數。比如對於乙個有 2000 個訓練樣本的資料集。將 2000 個樣本分成大小為 500 的 batch,那麼完成乙個 epoch 需要 4 個 iteration。

# 法1

cuda_visible_devices=0 python your_python.py

# 法2

export cuda_visible_devices=

"0"python your_python.py

# 法3 **檔案

import os

os.environ[

"cuda_visible_devices"]=

"0"

cnn中feature map、卷積核、卷積核個數、filter、channel的概念解釋,以及cnn 學習過程中卷積核更新的理解

卷積核(kernels)與濾波器(filters)的關係

cnn——flatten layer

一分鐘理解softmax函式(超簡單)

tensorflow padding之same和valid

深度學習面試題11:池化(same池化、valid池化、帶深度的池化)

神經網路 專業術語解釋(step, batch size, iteration,epoch)

batch、batch_size、iteration/step和epoch總結

epoch、batch、training step(iteration)的區別

tensorflow多gpu多程序占用的問題

一些專業術語的理解

batchsize 批大小。每次訓練取的資料量 iterator 迭代次數。訓練完全部資料所執行的batch個數,1個iteraror相當於用乙個batch訓練一次 epoch 訓練集中所有的資料都訓練了,叫做乙個epoch。一般epoch個數不為1。eg trainsets size 10000,...

一些通訊方面的專業術語

專業術語解釋 gsm goble system for mobile communication全球移動通訊系統 ss switching system交換系統 bss base station system 基站系統 bsc base station controller基站控制器 omc ope...

滲透測試中一些專業術語講解

寫這個部落格的目的也是為了我的安全學習做一些筆記吧,對於剛步入安全的我來說,菜雞這個詞可以說是很好的形容了我。看一些技術部落格文章之內的,看到很多專業術語都是一陣頭疼,完全不懂。所以我自己就查遍了各種資料,來乙個彙總吧。vulnerability 漏洞,指能對系統造成損壞或能借之攻擊系統的bug。0...