學習筆記Task4

2021-09-24 04:16:34 字數 1406 閱讀 9737

趕專案進度,僅了解

神經網路是由具有適應性的簡單單元所組成的廣泛並行互連的網路,它的組織能夠模擬生物神經系統對真實世界所做出的的互動反應。

神經網路最基本的成分是神經元模型,當通過神經元的資訊信好超過某乙個閾值,那麼該神經元就會啟用,從而作用於下乙個神經元。

在m-p神經元模型中,神經元接收到來自n個其他神經元傳遞過來的輸入訊號,這些輸入訊號通過帶權重的連線進行傳遞,神經元接收到的總輸入值將與神經元的閾值進行比較,然後通過啟用函式處理以產生神經元的輸出。

理想的啟用函式是階躍函式,取值0和1用來表示神經元的抑制和興奮狀態。然而階躍函式不連續、不光滑,所以常用sigmod函式代替。

把多個神經元按一定的層次結構連線起來,就得到了神經網路。

數學模型:yj=

f(∑i

ωixi

−θj)

y_j=f(\sum_i\omega_ix_i-\theta_j)

yj​=f(

∑i​ω

i​xi

​−θj

​)其中f ()

f()f(

)為啟用函式,ω

\omega

ω為權重,θ

\theta

θ為閾值

我們已知多個神經元按一定的層次結構連線起來就可以得到神經網路,感知機就是由兩層神經元組成的。

感知機結構簡單,學習能力也十分有限,因為它只有一層功能神經元(輸出層),只能處理線性可分的問題,如果需要解決非線性可分的問題,就要採用多層功能神經元。

具體做法是:在輸入層與隱藏層之間新增一層或多層神經元,稱為隱層 或者隱藏層,隱藏層的神經元和輸出層一樣都是具有啟用函式的功能性神經元。

在這種結構下,每層神經元與下一層的神經元全連線,不存在同層連線或跨層連線,輸入層接收外界的訊號,依次向下一層傳遞,每層神經元對訊號進行加工,最終結果由輸出層神經元輸出。

多層網路的學習能力比感知機強得多,但是學習規則也需要更加強大的演算法。**誤差逆傳播演算法(error backpropagation)**就是其中最傑出的代表。

bp演算法主要基於微積分鏈式求導法則,反向傳遞導數,基於梯度下降策略,以目標的負梯度方向對引數進行調整。

bp神經網路在學習中通常會過擬合,通常有兩種解決方式:

有關task4的學習和疑問

使用位置引數定義和呼叫函式 該函式返回引數x的絕對值 def my abs x if x 0 return x else return x result my abs 2 print result 使用關鍵字引數定義和呼叫函式 該函式輸出傳入的所有引數 def person name,age,kw ...

龍珠天池Python學習計畫Task4

利用pandas分析美國選民 喜好。進行資料處理前,我們需要知道我們最終想要的資料是什麼樣的,因為我們是想分析候選人與捐贈人之間的關係,所以我們想要一張資料表中有捐贈人與候選人一一對應的關係,所以需要將目前的三張資料表進行一一關聯,彙總到需要的資料。進過資料處理部分,我們獲得了可用的資料集,現在我們...

Task4 三數之和

給定乙個包含 n 個整數的陣列 nums,判斷 nums 中是否存在三個元素 a,b,c 使得 a b c 0 找出所有滿足條件且不重複的三元組。注意 答案中不可以包含重複的三元組。class solution def threesum self,nums list int list list in...