神經網路能用來幹什麼 神經網路究竟幹了一件什麼事?

2021-10-12 14:33:47 字數 1314 閱讀 2898

今天我們來討論當下最熱門的神經網路,現在深度學習炒的非常火,其實本質還是把神經網路演算法進行了延伸和優化!咱們這回的目標就直入主題用最簡單的語言讓大家清楚神經網路究竟是個什麼東西。關於神經網路與人工智慧的發展,以及神經網路各種生物學模型咱們就不嘮了,我是覺得把神經網路比作各種類人腦模型和生物學模型沒有半點助於咱們理解,反而把簡單的問題複雜了,這些恩怨情仇咱們就不過多介紹了!

這張圖就是我們的核心了,也是整個神經網路的架構,只要能理解這個,那就ok了!首先我們來觀察整個結構,發現在神經網路中是存在多個層的,有輸入層,隱層1,隱層2,輸出層。那麼我們想要得到乙個合適的結果,就必須通過這麼多層得到最終的結果,在這裡咱們先來考慮乙個問題,神經網路究竟做了一件什麼事?

如果你想做乙個貓狗識別,大家首先想到了神經網路,那它是怎麼做的呢?先來想想咱們人類是怎麼分辨的,是不是根據貓和狗的特徵是不一樣的,所以我們可以很輕鬆就知道什麼事貓什麼是狗。既然這樣,神經網路要做的事跟咱們一樣,它也需要知道貓的特徵是什麼,狗的特徵是什麼,這麼多的層次結構其實就做了一件事,進行特徵提取,我們希望網路結構能更好的識別出來我們想要的結果,那勢必需要它們能提取處最合適的特徵,所以神經網路的強大之處就在於它可以幫助我們更好的選擇出最恰當的特徵。

在第一張圖中我們定義了多層的結構,在這裡有乙個概念叫做神經元,那麼神經元真的存在嗎?像大腦一樣?其實就是乙個權重引數矩陣,比如你有乙個輸入資料。它是由3個特徵組成的,我們就說輸入是乙個batchsize*3的矩陣,(batchsieze是一次輸入的資料量大小),那既然要對輸入提取特徵,我們就需要權重引數矩陣w了,在圖中神經元的意思就是我們要把這個3個特徵如何變幻才能得到更好的資訊表達,比如中間的第乙個隱層有4個神經元,那麼我們需要的第乙個權重引數矩陣w1就是3 * 4,表示通過矩陣鏈結後得到的是batchsize * 4的特徵,也就是說我們將特徵進行的變換,看起來好像是從3變到了4只增加了乙個,但是我們的核心一方面是特徵的個數,這個我們可以自己定義神經元的個數。另一方面我們關注的點在於,什麼樣的權重引數矩陣w1才能給我得到更好的特徵,那麼神經網路大家都說它是乙個黑盒子,原因就在於權重引數矩陣w1內部是很難解釋的,其實我們也不需要認識它,只要計算機能懂就ok了。那麼這一步是怎麼做的呢?計算機怎麼得到最好的權重引數w1幫我們完成了特徵的提取呢?這一點就要靠反向傳播與梯度下降了,簡單來說就是我們告訴神經網路我的目標就是分辨出什麼是貓什麼是狗,然後神經網路就會通過大量的迭代去尋找最合適的一組權重引數矩陣。(如果不清楚什麼事梯度下降,先來看看我之前的文章吧!)

乾貨分享

斯坦福課程 :

這個只推薦咱們英文聽力,以及基礎很好的同學

這個適合有一定python語言基礎的同學。

caffe框架 :

經典深度學習框架,有很多python例子,跟著做一遍收穫很大。

神經網路 什麼叫神經網路

我們用簡潔易懂的語言了解下什麼叫人工智慧神經網路,假如有如下乙個神經網路。訓練完成後,隨便輸入乙個,這個網路需要識別是貓或狗或同時不是貓和狗。如下面輸入一張沙皮狗的,神經網路識別是一條狗。如果輸入下面輸入一張狗的,神經網路識別也是一條狗。如果輸入下面輸入一張貓的,神經網路識別是乙隻貓。如果輸入下面輸...

神經網路 卷積神經網路

這篇卷積神經網路是前面介紹的多層神經網路的進一步深入,它將深度學習的思想引入到了神經網路當中,通過卷積運算來由淺入深的提取影象的不同層次的特徵,而利用神經網路的訓練過程讓整個網路自動調節卷積核的引數,從而無監督的產生了最適合的分類特徵。這個概括可能有點抽象,我盡量在下面描述細緻一些,但如果要更深入了...

神經網路 卷積神經網路

1.卷積神經網路概覽 來自吳恩達課上一張,通過對應位置相乘求和,我們從左邊矩陣得到了右邊矩陣,邊緣是白色寬條,當畫素大一些時候,邊緣就會變細。觀察卷積核,左邊一列權重高,右邊一列權重低。輸入,左邊的部分明亮,右邊的部分灰暗。這個學到的邊緣是權重大的寬條 都是30 表示是由亮向暗過渡,下面這個圖左邊暗...