深度學習 戴子龍一周小結

2021-10-08 00:02:54 字數 1539 閱讀 8204

這一周挺忙的,要準備英語6級,我僅粗略的感受了一些名詞概念,下面我分層次說一說我對機器學習,深度學習,神經網路和卷積神經網路的理解。

機器學習有兩大類任務regression(回歸)和classification(分類)

當然還有很多任務,generation生成更複雜的東西,就是讓機器學習創造新東西。

機器學習就像是乙個函式:f(內容)=輸出 內容可以是很多東西,比如等等,輸出就是內容經過函式變化後的東西,可以是一段句子,一張,乙個數字等等。

那這個f 該怎麼編輯呢?不同於c或c++,c和c++中的f都是我們自己預先編輯好程式的執行步驟和規則。機器學習中的f是機器自己學來的。可以通過supervised learning(有監督學習)的方式,通過給機器訓練,讓機器自己找這個f,就是給機器大量訓練資料,比如加標籤的形式,提供給機器有標籤的資料讓它自己學習找最優最接近的f。機器在找最接近的f時會評估乙個f的好壞,就是損失函式,類似於咱們概統中學的那些最大似然函式。損失函式(loss)越小,f越優。機器會自動找出損失函式最小的f。

還有reinforce learning(增強學習)就是機器在實踐的過程中不斷的反饋調節f,讓f越來越優。

還有unsupervised learning(無監督學習)就是給機器一些訓練資料,但是沒有標籤。

深度學習包含於機器學習,也就是說深度學習一定是機器學習,機器學習不一定是深度學習。深度學習是從資料中學習表示的一種框架。

它強調從連續的層(layer)中學習。所謂深度就是一系列的層,深度有多深就是這些層數。這些層都是從訓練資料中自動學習的。層數比較少的,比如一兩層的稱為淺層學習。

舉乙個書上的例子,數字識別:

輸入一張(上面有個手寫數字)–>經過第一層layer–>第二層–>第n層–>最終輸出。

可以將深度網路看作多級資訊蒸餾操作,每經過一層,所包含的資訊就越豐富,一層層下去直至得出結果。

深度學習就是一種資料處理,每經過乙個層,其資料就被過濾精細化。

每一層有個權重,每一層對資料所作的操作體現在權重裡,這些操作本質上是一串數字,因為計算機只有0和1嘛。

學習的意思就是為所有的層找到權重值,這些所有的權重值組合在一起就相當於乙個非常複雜的函式f。

通過損失函式作為反饋調節各組權重值,直至各組權重值組成的函式能比較準確的解決問題。

神經網路的基本資料結構是層,層是乙個資料處理模組,將乙個或多個輸入張量轉化為乙個或多個輸出張量。

神經網路是層構成的。

可以解決一些二分類,多分類問題。

卷積神經網路是計算機視覺應用幾乎都在使用的一種深度學習模型。

卷積神經網路與普通神經網路的區別在於,卷積神經網路包含乙個由卷積層和池化層構成的特徵提取器。卷積和池化簡化了模型,減少了模型的引數。

卷積神經網路由三部分構成。第一部分是輸入層。第二部分由n個卷積層和池化層的組合組成。第三部分由乙個全連線的多層感知機分類器構成。

卷積神經網路 我暫時把他理解成乙個很複雜很高維的函式,有輸入,有輸出。因為聽說cnn常常被用在影像處理上,所以它的輸入通常是個影象,影象一次次通過layer,每一次通過layer資訊就被提取,影象中的資訊就被一次次的提取,就像個過濾器原理一樣。

cnn要比dnn更簡單

一周學習小結(2)

通過閱讀那篇文章,又理解了很多cnn的知識。影象在計算機中是一堆按順序排列的數字,可以用個正方形矩陣表示,每個點的值為0 255.0最暗,255最亮。彩色圖由3個矩陣疊加而成。cnn具有滿足畫面不變性的特點,目標的平移,旋轉,大小,和明暗,應該盡可能不影響判定。cnn就是讓權重在不同位置共享的神經網...

Python一周學習的小結

eoc 簡單優雅 沒有嚴格的靜態型別 基礎語法格式啥的就不講了,懂的人自然懂 python中基礎的資料結構有這麼幾個 上面這些資料結構有什麼特點,怎麼產生,怎麼使用 怎麼訪問 list list 的元素可以是不同的型別,也可以內部巢狀list l item 1 item 2 1,2,inner 1 ...

一周工作小結

一連幾天都比較忙,前天和老許一起去了學校,看了看羅捷小組的專案,然後我們就在邊上偷笑,發現和我們還是有段距離的,hoho。中午在重慶雞功煲吃的,我的本意是要請羅捷吃頓的,他畢竟幫了我們滿大的乙個忙,可是怎麼拉他都不去,那也只好算了,下午又和泡泡,老許去游泳。這個泡泡真是差點氣 死我。交給我的詳細設計...