機器學習 13

2022-08-31 20:30:17 字數 2588 閱讀 5766

1.簡述人工智慧、機器學習和深度學習三者的聯絡與區別。

搞清三者關係的最簡單方法,就是把它們想象成乙個同心圓,其中人工智慧最大,此概念也最先問世;然後是機器學習,出現的稍晚;最後才是深度學習,不過卻是如今人工智慧**式發展的根源,處於前兩者的範圍之內。

2. 全連線神經網路與卷積神經網路的聯絡與區別。

卷積神經網路也是通過一層一層的節點組織起來的。和全連線神經網路一樣,卷積神經網路中的每乙個節點就是乙個神經元。在全連線神經網路中,每相鄰兩層之間的節點都有邊相連,於是會將每一層的全連線層中的節點組織成一列,這樣方便顯示連線結構。而對於卷積神經網路,相鄰兩層之間只有部分節點相連,為了展示每一層神經元的維度,一般會將每一層卷積層的節點組織成乙個三維矩陣

3.理解卷積計算。

以digit0為例,進行手工演算。

from sklearn.datasets import load_digits #小資料集8*8

digits = load_digits()00

51391

0000

1315

101550

03152

01180

04120

0880

0580

0980

04110

11270

02145

101200

00613

10000

結果:

4.理解卷積如何提取影象特徵。

讀取乙個影象;

以下矩陣為卷積核進行卷積操作;

顯示卷積之後的影象,觀察提取到什麼特徵。

from pil import image

import matplotlib.pyplot as plt

import numpy as np

import pylab

from scipy.signal import convolve2d

a = image.open(r'c:\users\曾梓楷\desktop\曾梓楷\0.png')

l = a.convert('l')

yuantu = np.array(a) # 原圖

huidutu = np.array(l) # 灰度圖

k1 = np.array([[1, 0, -1], [1, 0, -1], [1, 0, -1]]) # 垂直邊緣檢查

k2 = np.array([[1, 1, 1], [0, 0, 0], [-1, -1, -1]]) # 水平邊緣

卷積api

scipy.signal.convolve2d

tf.keras.layers.conv2d

5. 安裝tensorflow,keras

參考:6. 設計手寫數字識別模型結構,注意資料維度的變化。

#可以上傳手動演算的每層資料結構的變化過程。model.summary() 

參考:

機器學習之python基礎13

theme 字串格式化輸出 author lz time 2018 12 05 content format的用法 str2 my name is age is 以字典的形式賦值,然後格式化輸出 print str2.format map 以變數的形式賦值,然後格式化輸出 print str2.fo...

機器學習 分類演算法 邏輯回歸13

邏輯回歸在演算法實現的時候有個判定是某個類別的概率,我們一般是根據樣本數量的大小去判定。邏輯回歸做二分類進行癌症 根據細胞的屬性特徵 return 構造列標籤名字 column sample code number clump thickness uniformity of cell size un...

機器學習 吳恩達 筆記 13 大規模機器學習

目錄 大型資料集的學習 批量梯度下降 隨機梯度下降 小批量梯度下降 隨機梯度下降收斂 對映化簡和資料並行 此為本人學習吳恩達的機器學習課程的筆記記錄,有錯誤請指出!如果模型演算法具有欠擬合現象,增加資料集可以得到較好的 效果,那麼怎樣應對乙個有 100 萬條記錄的訓練集?以線性回歸模型為例,每一次梯...