神經網路學習筆記8 26

2021-10-23 20:36:08 字數 1851 閱讀 1142

從今天開始系統學習神經網路和機器學習,記乙個筆記幫助學習。在學習中遇到的問題用來記錄。每天打卡~~~~

從資料中抽取規律,並用來**未來。主要應用有:分類問題,回歸問題和排序問題和生成問題。我主要關注的是回歸問題。 前言

一、機器學習基礎

二、神經網路

三 、tensorflow

注意一下包含關係:人工智慧》機器學習》深度學習

深度學習是機器學習的子方向!!!!

神經網路的最小結構

神經元中,權重w與輸入x相乘再相加+偏置b,經過啟用函式f。

偏置的理解:w和b共同決定分類線或者分類面,b決定與座標交點的值即截距。二維平面是線,三維平面是分類線

x接近正無窮,接近1,x負無窮趨近於0。(-6,+6)比較陡峭。其值域在(0,1)之間——同樣,概率也在(0,1)之間,

所以在二分類問題時候可以定義,當輸入為x ,輸出y=0時候的概率就是sigmoid函式的輸出,當y=1時候的概率就是:

p(y=1|x)=1-hw(x)

若要做多分類分類模型,可以給加神經元,加乙個神經元有二個輸出,可以做三分類的問題,注意此時:

w從向量變成了矩陣

輸出wx變成向量,而不是值了

同時對於二分類問題的另外乙個角度去看

相當於wx對於e^(-wx),然後與1相加進行歸一化,那麼對於多分類可以這樣理解:

接上面的公式舉例理解***概率***,例子理解:

作用:衡量對資料的擬合程度

常用損失函式(公式網上自己找吧):平方差損失,交叉熵損失(更適合做多分類)

目的要求調整引數使模型在訓練集上的損失函式值最小,意味著model**結果與真實差別最小。

函式的下降方向就是其導數方向,所以要求引數的變化方向就是要對引數求偏導。

α就是步長,後邊那個方框是變化的方向。步長的大小影響很大。

是谷歌的第二代機器學習框架。(但我之後要學pytorch呀,= =學不學都行吧 ,先看看)

同時安裝了 jupyter notebook,這個是網頁版的,可以看單步執行內容。安裝過程參見:

神經網路學習筆記

隱含層數越多,越容易擬合複雜函式 為了擬合複雜函式需要的隱含節點數目,基本上隨著隱含層數目的增加呈現指數下降的趨勢,也就是說層數越多,神經網路所需要的隱含節點可以越少。層數越深,概念越抽象,需要背誦的知識點 神經網路的隱含節點 就越少。但是,層數越多,容易出現過擬合以及引數難以除錯以及梯度瀰散的問題...

神經網路學習筆記

sigmoid函式是一種常見的擠壓函式,其將較大範圍的輸入擠壓到 0 1 區間內,其函式的表示式與形狀如下圖所示 該函式常被用於分類模型,因為其具有很好的乙個特性f x f x 1 f x 這個函式也會被用於下面的神經網路模型中做啟用函式。生物的神經網路系統中,最簡單最基本的結構是神經元。每個神經元...

神經網路 學習筆記

神經網路是用來解決分類問題的模型。他與感知機有著緊密的聯絡。神經網路中,神經元接收到的總輸入將與神經元的閾值進行比較,然後通過 啟用函式 處理以產生神經元的輸出。最理想的啟用函式是階躍函式,但是他不連續,不光滑,所以,採用sigmoid函式來進行替代。感知機只有輸出層神經元進行啟用函式處理,即只擁有...