Keras入門實戰(1) MNIST手寫數字分類

2021-09-01 05:56:54 字數 3062 閱讀 6925

目錄

1)首先我們載入keras中的資料集

2)網路架構

3)選擇編譯(compile引數)

4)準備影象資料

5) 訓練模型

6)測試資料

前面的部落格中已經介紹了如何在ubuntu下安裝keras深度學習框架。

現在我們使用 keras 庫來學習手寫數字分類。

我們這裡要解決的問題是:將手寫數字的灰度影象(28 畫素×28 畫素)劃分到 10 個類別 中(0~9)。我們將使用 mnist 資料集,它是機器學習領域的乙個經典資料集,其歷史幾乎和這 個領域一樣長,而且已被人們深入研究。這個資料集包含 60 000 張訓練影象和 10 000 張測試圖 像,由美國國家標準與技術研究院(national institute of standards and technology,即 mnist 中 的 nist)在 20 世紀 80 年代收集得到。你可以將「解決」mnist 問題看作深度學習的「hello world」。下圖為mnist影象數字樣本:

keras已經包含了很多資料集,我們本例子中的資料集也包含在其中:

[1]

from keras.datasets import mnist

(train_images, train_labels), (test_images, test_labels) = mnist.load_data()

我們來看一下訓練集資料:

[2]

train_images.shape
(60000, 28, 28)
這裡顯示的是我們有60000個訓練樣本,其中每個樣本是28x28畫素的影象。

[3]

train_labels
array([5, 0, 4, ..., 5, 6, 8], dtype=uint8)
這是訓練集的標籤。

接下來的工作流程如下:

[4]

from keras import models

from keras import layers

​network = models.sequential()

network.add(layers.dense(512, activation='relu', input_shape=(28 * 28,)))

network.add(layers.dense(10, activation='softmax'))

神經網路的核心元件是層(layer),它是一種資料處理模組,你可以將它看成資料過濾器。 進去一些資料,出來的資料變得更加有用。具體來說,層從輸入資料中提取表示——我們期望這種表示有助於解決手頭的問題。大多數深度學習都是將簡單的層鏈結起來,從而實現漸進式 的資料蒸餾(data distillation)。深度學習模型就像是資料處理的篩子,包含一系列越來越精細的資料過濾器(即層)。

本例中的網路包含 2 個 dense 層,它們是密集連線(也叫全連線)的神經層。第二層(也是最後一層)是乙個 10 路 softmax 層,它將返回乙個由 10 個概率值(總和為 1)組成的陣列。每個概率值表示當前數字影象屬於 10 個數字類別中某乙個的概率。

其中用到的主要有以下三個引數:

[5]

network.compile(optimizer='rmsprop',

loss='categorical_crossentropy',

metrics=['accuracy'])

在開始訓練之前,我們將對資料進行預處理,將其變換為網路要求的形狀,並縮放到所有值都在 [0, 1] 區間。比如,之前訓練影象儲存在乙個 uint8 型別的陣列中,其形狀為 (60000, 28, 28),取值區間為 [0, 255]。我們需要將其變換為乙個 float32 陣列,其形狀為 (60000, 28 * 28),取值範圍為 0~1。

[6]

train_images = train_images.reshape((60000, 28 * 28))

train_images = train_images.astype('float32') / 255

​test_images = test_images.reshape((10000, 28 * 28))

test_images = test_images.astype('float32') / 255

我們還需要對標籤進行分類編碼。

[7]

from keras.utils import to_categorical

train_labels = to_categorical(train_labels)

test_labels = to_categorical(test_labels)

現在我們準備開始訓練網路,在 keras 中這一步是通過呼叫網路的 fit 方法來完成 。

[8]

network.fit(train_images, train_labels, epochs=5, batch_size=128)
訓練過程中會顯示兩個數字:乙個是網路在訓練資料上的損失(loss),另乙個是網路在 訓練資料上的精度(acc)。 現在我們來檢查一下模型在測試集上的效能。

這樣乙個簡單的全連線神經網路模型,精度為97%。第乙個例子到這裡就結束了。你剛剛看到了如何構建和訓練乙個神經網路,用不到 20 行的 python **對手寫數字進行分類。接下來我們需要學習張量(輸入網路的資料儲存物件)、張量運算(層的組成要素)和梯度下降(可以讓網路從訓練樣本中進行學習)。

人工智慧學習(1)MNIST入門

好久沒有用到tensorflow了,把機器學習和深度學習扔了有一年了,今天撿起來發現自己還是如此有興趣,決定從頭開始學習的過程中來重新撿起快遺忘的知識。首先開始 從mnist手寫識別開始,我是通過tensorflow中文社群的教程學習的,總結一下這個過程中遇到的問題。tensorflow已經出到2....

caffe實踐程式1 mnist任務總結

一般來說,跑乙個資料集需要以下步驟 1 把資料集轉換成leveldb格式。例子 教程中的get mnist.sh 是得到2個mnist data檔案,乙個用於訓練,乙個用於測試,而後create mnist.sh是利用caffe master build examples mnist 的conver...

Keras入門級實戰 MNIST手寫體識別

手寫體識別 這裡要解決的問題是,將手寫數字的灰度影象 28 畫素 28 畫素 劃分到 10 個類別 中 0 9 這個資料集包含 60 000 張訓練影象和 10 000 張測試圖 像,由美國國家標準與技術研究院 national institute of standards and technolo...