15天共讀深度學習Day5

2021-09-19 19:06:45 字數 1364 閱讀 9050

(今天上完課,我們就算是放假了。放假了,也放鬆了,差點就忘了打卡這件事了o(╯□╰)o)

1.  神經網路的特徵就是可以從資料中學習。即可以由訓練資料自動獲取最優權重引數的值。

神經網路的優點是對所有問題都可以用同樣的流程來解決。也就是說,與待處理的問題無關,神經網路可以將資料直接作為原始資料,進行「端對端」的學習。

2.機器學習中,一般將資料分為訓練資料和測試資料兩部分來進行學習和實驗。

首先,使用訓練資料進行學習。尋找最優的引數;訓練資料也可以稱為監督資料。

然後,使用測試資料評價訓練得到的模型的實際能力。

為什麼要將資料分為訓練資料和測試資料呢?

因為我們追求的是模型的泛化能力。為了正確評價模型的泛化能力,就必須劃分為訓練資料和測試資料。

3.泛化能力是指處理未被觀察過的資料(不包含在訓練資料中的資料)的能力。獲得泛化能力是機器學習的最終目標。

4.神經網路的學習通過某個指標表示現在的狀態,然後以這個指標為基準,尋找最優權重引數。神經網路學習中所用的指標稱為損失函式。這個損失函式可以使用任意函式,但一般用均方誤差和交叉熵誤差等。

損失函式時表示神經網路效能的「惡劣程度」的指標,即當前的神經網路對監督資料在多大程度上不擬合,在多大程度上不一致。

(只對某個資料集過度擬合的狀態稱為過擬合,避免過擬合也是機器學習的乙個重要課題)

(1)可以作為損失函式的函式有很多,其中最有名的是 均方誤差 

均方誤差會計算神經網路的輸出和正確解監督資料的各個元素之差的平方,再求總和。

均方誤差越小,結果就與監督資料更吻合。

(2)交叉熵誤差 也被經常用作損失函式。

5.機器學習針對訓練資料計算損失函式的值,找出使該值盡可能小的引數。因此,計算損失函式時必須將所有的訓練資料作為物件。也就是說,如果訓練資料有100個的話,我們就要把這100個損失函式的總和作為學習的指標。

mnist資料集的訓練資料有60000個,如果以全部資料為物件求損失函式的和,則計算過程需要花費較長的時間。如果遇到大資料,這樣做就是很不現實的。因此,我們從全部資料中選出一部分,作為全部資料的「近似」。

神經網路的學習也是從訓練資料中選出一批資料(稱為 mini-batch小批量)然後對每個mini-batch計算損失函式,進行學習。

計算電視收視率時,並不會統計所有家庭的電視機,而是僅以那些被選中的家庭為統計物件。

和收視率一樣,mini-batch的損失函式也是利用一部分樣本資料來近似地計算整體。也就是說,用隨機選擇的小批量資料作為全體訓練資料的近似值。

15天共讀深度學習Day13

通過cnn的視覺化,隨著層次變深,提取的資訊愈加高階。cnn 的卷積層中提取的資訊。第 1 層的神經元對邊緣或斑塊有響應,第 3 層對紋理有響應,第 5 層對物體部件有響應,最後的全連線層對物體的類別 狗或車 有響應。lenet和alexnet是cnn的代表性網路。lenet是1998年提出的 21...

前端學習Day5

一.選擇符的權重 id class 標籤 四個數字表示權重 1.內聯樣式表 1000 2.id 100 3.class 10 4.標籤 1 5.偽類選擇符 10 6.萬用字元 0 7.包含選擇符的權重為權重之和 eg box div 權重 100 1 101 wrap con p 權重 10 10 ...

菜鳥深度學習的逆襲之路 day5

乙個session可能會擁有一些資源,例如variable或者queue。當我們不再需要該session的時候,需要將這些資源進行釋放。有兩種方式,呼叫session.close 方法 使用with tf.session 建立上下文 context 來執行,當上下文退出時自動釋放。總結一下,記得初始...