基於深度學習的自然語言處理 筆記(第四章)

2021-10-23 20:36:08 字數 1477 閱讀 5861

@[toc]第4章 前饋神經網路

最簡單的神經網路稱作感知器。它是乙個簡單的線性模型:

ww是權重矩陣,b

bb是偏置項。為了能超越線性函式,我們引進乙個非線性的隱藏層,這樣就能得到帶有單一隱層的多層感知器(mlp1)。

gg是作用於每個元素的非線性方程(也稱作啟用函式或非線性),g

gg在網路表示複雜函式的能力中,起了至關重要作用。沒有g

gg的非線性,神經網路只能表示輸入的線性變換。例如:

,或者稱完全連線的或仿射的。具有多個隱層的網路稱深層網路。

與線性模型類似,神經網路的輸出是乙個dou

td_dout

​ 維向量。dou

td_dout

​=1 時,網路的輸出是乙個標量 。這樣的網路在關注輸出值的情況下可以用於回歸(或打分)問題;在關注輸出值的符號時,可以用於二分類問題。滿足dou

td_dout

​>k的網路可以用於k分類問題,這需要將每個維度與乙個類別相關聯,然後尋找具有最大值的維度。如果輸出向量是正的並且各項和為1,則輸出可以被解釋為在各類別上的分布。

引數與輸入一起決定了網路的輸出,訓練演算法負責

設定引數的值,使得網路得到正確的**結果。

給定任務選取非線性函式是乙個經驗問題

sigmoid : p(x

)=1/

(1+e

−x)p(x)=1/(1+e^)

p(x)=1

/(1+

e−x)

乙個s型的函式,它將每乙個值x

xx變換到區間[0,1]中。

tanh(雙曲正切): tan

h(x)

=(e2

x−1)

/(e2

x+1)

tanh(x)=(e^-1)/(e^+1)

tanh(x

)=(e

2x−1

)/(e

2x+1

)乙個s型函式,它將每乙個值x

xx變換到區間[0,1]中。

hard tanh啟用函式是tanh函式的近似

hardtanh(x)=-1,x

hardtanh(x)=1,x>1;

hardtanh(x)=x,x=other;

修正線性單元relu

基於深度學習的自然語言處理

cbow表示可以通過求單詞表示向量和或者通過將乙個單詞詞袋向量乘 以乙個每一行對應於乙個稠密單詞表示的矩陣 這樣的矩陣也叫作嵌入矩陣 embedd i ng matricy 來得到。網路中每行神經元的值可以看作是乙個向量 全連線層可以看作是從四維到六維 的線性變換。全連線層實現了乙個向量與矩陣的乘法...

機器學習 深度學習 自然語言處理

文字挖掘 文字分類 機器翻譯 客服系統 複雜對話系統 手工特徵耗時耗力,還不易拓展 自動特徵學習快,方便擴充套件 深度學習提供了一種通用的學習框架,可以用來表示世界,視覺和語言學資訊 深度學習可以無監督學習,也可以監督學習 我 今天 下午 打籃球 p s p w1,w2,w3,w4,w5,wn p ...

深度學習的自然語言處理 課程筆記 1

大牛的讀書筆記 2017年版的課件 第一節課基本上看大牛的讀書筆記對照slides就可以了,都是入門級的介紹,不需要花太多的時間。1 什麼是自然語言處理?自然語言處理是電腦科學 人工智慧以及語言學的交叉領域。它的目標是用計算機來處理自然語言,以完成一些任務,例如購物 智慧型問答等。2 什麼是深度學習...