機器學習helloworld(例項)

2021-08-19 09:05:29 字數 1354 閱讀 1709

相信準備入坑機器學習的朋友們,大多數剛開始看著眾多的數學公式,會有種想放棄的挫敗感!至少我是這樣的。堅持下來,找到適合的方式,相信很快你也會寫出自己機器學習的 helloworld!入坑指南 提取密碼:5s0u

import gzip

import os

import struct

import numpy as np

from keras.models import sequential

from keras.layers import dense, activation

from keras.optimizers import sgd

from tensorflow.examples.tutorials.mnist import input_data

if __name__ == '__main__':

model1 = sequential() # 順序模型

model.add(dense(input_dim=28 * 28, output_dim=500))

model.add(activation('sigmoid'))

model.add(dense(output_dim=500))

model.add(activation('sigmoid'))

model.add(dense(output_dim=10))

model.add(activation('softmax'))

# 這裡我們選擇交叉熵損失函式

model.compile(loss='categorical_crossentropy', optimizer=sgd(lr=0.1), metrics=['accuracy'])

mnist = input_data.read_data_sets("/users/dongsheng/downloads/mnist/", one_hot=true)

x_train, y_train = mnist.train.images, mnist.train.labels

x_test, y_test = mnist.test.images, mnist.test.labels

# x_train = x_train.reshape(-1, 784).astype('float32')

# x_test = x_test.reshape(-1, 784).astype('float32')

model.fit(x_train, y_train, batch_size=100, nb_epoch=20)

loss_and_metrics = model1.evaluate(x_test, y_test)

為什麼選擇 交叉熵

cuda學習筆記1 hello world實戰

因為要用tensorrt寫自定義層,一定會用到cuda,所以學一下。fuc.cu fuc.h test.cu cmakelists.txt include include fuc.h global void kernel extern global void kernel include inclu...

機器學習 softmax回歸 python實現

恢復內容開始 softmax regression 可以看做是 lr 演算法在多分類上的推廣,即類標籤 y 的取值大於或者等於 2。假設資料樣本集為 left y right left x y right left x y right left x y right right 對於 sr 演算法,其...

機器學習週刊第一期 Hello World

說了facebook顯然要說google啊,andrew ng,hinton都在這,各種集群,以及最近的乙個gpu上就能提高很多效能的演算法,超牛 andrew ng 牛啊,講課深入淺出,機器學習成了stanford選課人數第一的教授,話說央視做了個網際網路時代節目,還採訪了吳老闆,回頭一定圍觀。e...