神經網路和傅利葉級數的理解

2021-10-06 04:22:47 字數 1334 閱讀 1425

深度學習理解

通俗地講,機器學習是實現人工智慧的途徑,而神經網路隸屬於機器學習中一種具體的演算法方向,其中深度學習即深層神經網路為神經網路中的一種,因此我們可以簡單理解為:深度學習==多層神經網路、深度學習屬於機器學習, 如下圖所示:

既然屬於機器學習,就應該**下機器學習中的兩種演算法分界:分類和聚類。

神經網路屬於分類演算法的一種,分類演算法的本質是決策分界線的擬合,有些資料較為好分界(如下圖)

這些資料只需要我們擬合乙個簡單的線性函式並且調整引數就可以進行分類

但對於有些資料(以二維資料為例)分界就顯得格外困難(如下圖)

這時簡單的線性函式已經不能滿足資料分類的想法,我們就需要去擬合一種更加複雜的函式來應對這種情況

我還記得在傅利葉級數裡面所說,所有的曲線都可以分解為

y = a+bx+cx2+dx3+…

所以我們可以通過設定a,b,c…的值來完成分界函式的擬合(過擬合問題可以用加入正則項來解決),無論這個分界函式是多離奇的樣子,我們總能通過權重的調整,來達到符合自己預期的目的分類。

但我們的資料往往是多維資料,所以這個函式實際上是:

y = a1+a2+a3+b1x+b2x+b3x+c1x2+c2x2+……

但對於計算機和多維資料來說,x的高次冪的計算無疑是浪費資源的方式,我們可以把這個函式拆分成線性和非線性的部分,也就是:

y = a1+a2+a3+b1x+b2x+b3x+z(x)

z(x)為乙個非線性函式,無疑這是乙個無比困難表示的非線性函式,但這不妨礙它成為我們的乙個想法

我們再去回過頭看神經網路,這是乙個多層結構,每一層之間設定線性部分,對於人和機器來說都較為簡單,前一層的輸出等於後一層的輸入,但如果只有線性部分,對於多分類來說無疑不可取,但又因為他是多層模型,所以我們可以在每一層每乙個的輸出後面加上極為簡單的帶參的非線性函式,再多層疊加之後,他就成為了之前我們所說的無比複雜的z(x),而這個非線性函式,就是神經網路中的激勵函式,如此一來,我們就完成了多維曲線的擬合問題,只需要通過引數的調整,就可以找到複雜的擬合曲線,進行多分類問題的解決。

相較於其他分類演算法,神經網路(儘管說它是黑箱)的擬合、分類效果,因為激勵函式、多層疊加的相互作用,多分類的任意複雜的分介面都易於得到

所以現在深度學習(神經網路)被大量的用於文字、、面部、聲音識別的工作中

傅利葉級數的理解

三角函式的基本形式是 f x asin nx a 振幅 n 頻率 相位 x也可以用wt來表示 函式的正交 兩個函式的積的積分為0,那麼這兩個函式為正交關係 1.當n m時,cosnx與cosmx正交,sinnx與cosmx正交,sinnx與sinmx正交 2.當n m時,cosnx與cosmx不正交...

週期三角波傅利葉級數例題 如何理解傅利葉級數

我們學高等數學無窮級數裡面有乙個重要的級數叫做傅利葉級數,這個級數表述起來非常複雜,不好理解,很多人也是看到這個級數感覺摸不著頭腦,被一長串公式嚇到了,這裡將通俗講解傅利葉級數。傅利葉級數是週期函式乙個級數,對於乙個滿足一定條件的週期為t的週期函式f t 可以分解為以下形式 簡單來講,傅利葉級數就是...

傅利葉級數要考的東西

如果週期是2 2 pi 2 並且絕對可積,那麼可以算傅利葉級數。求之前最好說一句是按段光滑的。1.f x a0 2 1 ancos nx bnsin n x f x frac sum 1 to infty a cos nx b sin nx f x 2 a0 1 an cos n x b n sin...