新手,你需要了解的關於神經網路的所有知識

2021-09-22 23:44:34 字數 3669 閱讀 3985

進行機器學習的很多人容易被神經網路中的各種名詞或者概念搞懵,這篇文章將帶你了解這些名詞或者概念的含義,以便你能更好更全面的了解它們。

神經元(node):它是神經網路的基本單位。它獲得一定數量的輸入和乙個偏置值。當訊號(值)到達時會乘以乙個權值。如果神經元有4個輸入,那麼就有4個權值,權重可以在訓練時調整。

神經網路中單個神經元的運作

偏置(偏移):它是神經元的額外輸入,它始終為1,並具有自己的連線權重。這確保即使所有的輸入都為空(全部為0),神經元也會啟用。

啟用功能(傳遞函式):啟用函式用於將非線性引入神經網路。它會將值縮小到較小的範圍內。sigmoid啟用函式的壓縮範圍為0到1之間。在深度學習中有許多啟用函式可用,relu,selu和tanh均優於sigmoid啟用函式。

啟用函式** - 

基礎的神經網路布局

輸入層 :神經網路中的第一層。它需要輸入訊號(值)並將它們傳遞到下一層。它不對輸入訊號(值)做任何操作,並且沒有關聯的權重和偏置值。在我們的網路中,我們有4個輸入訊號x1,x2,x3,x4。

隱藏層:隱藏層具有對輸入資料應用不同變換的神經元(節點)。乙個隱藏層是垂直排列的神經元的集合(representation)。在我們給出的影象中有5個隱藏層。在我們的網路中,第一隱層有4個神經元(節點),第2層有5個神經元,第3層有6個神經元,第4層有4個,第5層有3個神經元。最後乙個隱藏層將值傳遞給輸出層。隱藏層中的每個神經元都與下一層的每乙個神經元有連線,因此我們有乙個完全連線的隱藏層。

輸出層 :著是網路的最後一層,它接收來自最後乙個隱藏層的輸入。通過這個層,我們可以知道期望的值和期望的範圍。在這個網路中,輸出層有3個神經元,輸出y1,y2,y3。

input shape :它是我們傳遞給輸入層的輸入矩陣形狀。我們網路的輸入層有4個神經元,它期望1個樣本的4個值。如果我們一次只提供乙個樣本,我們網路的期望輸入形狀是(1,4,1)。如果我們提供100個樣品,則輸入形狀將為(100,4,1)。不同的庫期望形狀的格式是不同的。

權重(引數):權重表示單元之間連線的強度。如果從節點1到節點2的權重比較大,意味著神經元1對神經元2的影響比較大。權重降低了輸入值的重要性。當權重接近零時意味著更改此輸入將不會更改輸出。負權重意味著增加此輸入會降低輸出。權重決定了輸入對輸出的影響程度。

前向傳播

前向傳播:前向傳播的過程是向神經網路饋送輸入值並得到我們稱為**值的輸出。當我們將輸入值提供給神經網路的第一層時,它沒有進行任何操作。第二層從第一層獲取值並進行乘法,加法和啟用操作,然後將得到的值傳遞給下一層。在後面的層中執行相同的操作,最後我們在最後一層得到乙個輸出值。

反向傳播

反向傳播:前向傳播後,我們得到乙個被稱為**值的輸出值。為了計算誤差,我們將**值與實際輸出值進行比較。我們使用損失函式(下面會提到)來計算誤差值。然後我們計算神經網路中每乙個誤差值的導數和每乙個權重。反向傳播使用微分學的鏈式法則。在鏈條法則中,首先我們計算對應最後一層權值的誤差值的導數。我們稱這些導數為:梯度,然後使用這些梯度值來計算倒數第二層的梯度。重複此過程,直到我們得到神經網路中每個權重的梯度。然後從權值中減去該梯度值,以減少誤差值。這樣,我們就更接近(下降)區域性最小值(也就是說最小的損失)。

學習率:當我們訓練神經網路時,我們通常使用梯度下降法來優化權重。在每次迭代中,我們都使用反向傳播來計算每個權重的損失函式的導數,並從這個權重中減去它。學習率決定了你想要更新權重(引數)值的速度。學習率不能太低導致收斂的速度緩慢,也不能太高導致找不到區域性最小值。

精確率和召回率

準確率:準確率是指測量值與標準值或已知值的接近程度。

tp是真正的陽性,tn是真陰性,fp是假陽性,fn是假陰性

混淆矩陣– 維基百科:

在機器學習領域特別是關於統計分類的問題,乙個混淆矩陣(也稱為誤差矩陣),是一種特定的**布局,它讓你可以將演算法的效能視覺化(通常在監督學習中使用,在無監督學習它通常稱為匹配矩陣)。矩陣的每一行表示**類中的例項,而每一列表示實際類中的例項(反之亦然)。這個名字源於這樣乙個事實:它很容易看出系統是否混淆了兩個類(通常是錯誤地標記成另乙個)。

混淆矩陣

收斂:收斂是指迭代進行時輸出越來越接近特定值。

正則化 :用於克服過擬合問題。在正則化中,我們通過在權重向量w(它是給定演算法中的學習引數的向量)中新增l1(lasso)或l2(ridge)範數來懲罰我們的損失項。

l(損失函式)+ λn(w) – 這裡λ是你的正則項,n(w)是l1或l2範數

歸一化:資料歸一化是將乙個或多個屬性重新調整到0到1的範圍的過程。當你不知道資料的分布或者當你知道分布不是高斯函式(鐘形曲線)時,歸一化是一種很好的解決方法。它有助於加速學習過程。

全連線層 :當一層中的所有節點的啟用進入下一層中的每個節點時。當第l層中的所有節點連線到第(l + 1)層中的所有節點時,我們將這些層稱為完全連線的層。

全連線層

損失函式/代價函式:損失函式計算單個訓練示例的誤差。代價函式是整個訓練集的損失函式的平均值。

模型優化器:優化器是一種用於更新模型中權重的搜尋技術。

效能指標:效能指標用於測量神經網路的效能。準確率,損失,驗證精度,驗證損失,平均絕對誤差,精確率,召回率和f1分數都是一些效能指標。

批量尺寸 :通過前向或反向訓練的示例數。批量尺寸越大,你需要的記憶體空間就越大。

訓練次數:模型接觸訓練資料集的次數。每一次等於一次通過前向或反向的所有訓練例項。

關於「寫作」你需要了解的

寫作技能 writing skill 是言語技能的一種形式。指控制和調節寫作活動進行的心智活動方式。在寫作過程中形成。包括構思技能 表達技能和修改技能。與寫作知識密切相關,但又有區別。寫作知識是一種有關寫作程式的操作性知識,對寫作活動只起定向作用。言語技能的一種形式。控制和調節寫作活動進行的心智活動...

Fiddler 你需要了解的

官網 平台 支援所有作業系統和瀏覽器,對window支援比較好 主要功能 工作原理 系統 不過如果fiddler非正常退出,這時候因為fiddler沒有自動登出,會造成網 頁無法訪問。解決的辦法是重新啟動下fiddler.同類的其它工具有 httpwatch,firebug,wireshark 啟動...

網際網路你需要了解的

一些自己的感悟,之前自己太不努力了,現在開始努力學習,將一些感悟體會,學習到的分享出來 之前一直沒有理解,只是侷限於web的前後端,原來ios和android開發其實就像是web的前端一樣,頁面的跳轉,彈窗,提示,展示 前端是使用者直接去使用的,感官很強,會有一些簡單的處理,但是其實主要還是介面流暢...