機器學習與模式識別期末試題回憶

2021-10-14 13:06:41 字數 3872 閱讀 3630

記錄一下自己的考試題目

一 選擇

1、給人臉打上標籤再讓模型進行學習訓練的方法,屬於( )

a.強化學習

b.半監督學習

c.監督學習

d.無監督學習

正確答案:c

2、下面哪幾種機器學習的分類,完全不需要人工標註資料?

a.半監督學習

b.強化學習

c.無監督學習

d.監督學習

正確答案:b.c

3、機器學習中e, t、p分別表示:

a. performance measure

b. task

c. performance

d. experience

正確答案: a, b,d

4、一般來說,在機器學習中,用計算機處理一幅的影象,維度是:

a.上萬維

b.二維

c.三維

d.一維

正確答案:a

5、向量x=[1,2,3,4,-9,0]的l1範數是多少(b)

a. 1

b. 19

c. 6

d. sqrt(111)

6、關於l1正則和l2正則 下面的說法正確的是(bd)

a. l2範數可以防止過擬合,提公升模型的泛化能力。但l1正則做不到這一點

b. l2正則化標識各個引數的平方的和的開方值。

c. l2正則化有個名稱叫「lasso regularization」

d.l1範數會使權值稀疏

7、fisher線性判別函式的求解過程是將n維特徵向量投影在 (2)中進行 。 (1)二維空間 (2)一維空間 (3)n-1維空間

8、以下描述中,對梯度解釋正確的是(ab)

a梯度是乙個向量,有方向有大小

b求梯度就是對梯度向量的各個元素求偏導

c梯度只有大小沒有方向

d梯度只有方向沒有大小

9、.標準差與方差的關係是(abc)

a標準差是方差的算術平方根

b標準差可以反映離散程度,也可以反映出樣本的量綱

c方差只能反映離散程度

d標準差的平方是方差

10、 假設你在卷積神經網路的第一層中有 5 個卷積核,每個卷積核尺寸為 7×7,具有零填充且步幅為 1。該層的輸入的維度是 224×224×3。那麼該層輸出的維度是多少?c

a. 217 x 217 x 3

b. 217 x 217 x 8

c. 218 x 218 x 5

d. 220 x 220 x 7

二 判斷題

(1)給定n個資料點,如果其中一半用於訓練,另一半用於測試,則訓練誤差和測試誤差之間的差別會隨著n的增加而減小(t)

(2)當訓練資料較少時更容易發生過擬合。(t)

(4)在核回歸中,最影響回歸的過擬合性和欠擬合之間平衡的引數為核函式的寬度。(t)

(7)梯度下降有時會陷於區域性極小值,但 em 演算法不會。(f)

(9)boosting 和 bagging 都是組合多個分類器投票的方法,二者都是根據單個分類器的正確率決定其權重。(f)

(11) 一般來說,回歸不用在分類問題上,但是也有特殊情況,比如logistic 回歸可以用來解決0/1分類問題。(t)

(13)回歸和分類都是有監督學習問題(t)

(15)在adaboost演算法中,所有被錯分的樣本的權重更新比例相同(t)

(17)增加卷積核的尺寸,一定能提高卷積神經網路的效能。(f)

(21)兩個變數相關,它們的相關係數 r 可能為 0 。(t)

三 簡答題

1 簡述模式和模式類的定義,老王和老頭分別代表什麼,哪乙個是模式,哪乙個是模式類?

2簡述判別函式的兩個影響因素

3簡述貝葉斯演算法的定義思路

4簡述pca的思路

5簡述lle的思路

四 程式填空題

kmeans演算法填空,採用matlab編寫(10個)

clear all;

close all;

clc;

n=4;%設定聚類數目 (1)

[m,n]=size(data);%表示矩陣data大小,m行n列

pattern=zeros(m,n+1);%生成0矩陣 (2)

center=zeros(n,n);%初始化聚類中心

pattern(:,1:n)=data(:,:);

for x=1:n

center(x,:)=data( randi(300,1),;);%第一次隨機產生聚類中心

end (3)

while 1 %迴圈迭代每次的聚類簇;

distence=zeros(1,n);%最小距離矩陣 (4)

num=zeros(1,n);%聚類簇數矩陣

new_center=zeros(n,n);%聚類中心矩陣

for x=1:m

for y=1:n

distence(y)=norm(data(x,:)-center(y,:));%計算到每個類的距離 (5)

end[~, temp]=min(distence);%求最小的距離 (6)

pattern(x,n+1)=temp;%劃分所有物件點到最近的聚類中心;標記為1,2,3; (7)

endk=0;

for y=1:n

for x=1:m

if pattern(x,n+1) = =y

new_center(y,:)=new_center(y,:)+pattern(x,1:n);

num(y)=num(y)+1;

endend

new_center(y,:)=new_center(y,:)/num(y);%求均值,即新的聚類中心;

if norm(new_center(y,:)-center(y,:))<0.1%檢查集群中心是否已收斂。如果是則終止。 (8)

k=k+1;

endend

if k==n

break;(9)

else

center=new_center;(10)

endend

[m, n]=size(pattern);

五 寫出流程

例: 利用遺傳演算法計算下面函式的最大值:

f(x)=xsin(10π*x)+2 -1=1.設定引數:選擇二進位制編碼,種群中個體數為40,每個種群長度為22,使用代溝為0.9,最大遺傳代數為25,交叉率為0.7,變異率為0.0017。

二進位制編碼:假設要求求解精度到6位小數,區間長度為2-(-1)=3,即需將區間分3/0.000001=3×10 等份。所以編碼的二進位制串長應為22位。

2.初始種群:

產生的方式:隨機

產生的結果:長度為22的二進位制串

1111010011100001011000

1100110011101010101110

1010100011110010000100

3.計算適應度:直接用目標函式作為適應度函式

①解碼:將個體i轉化為[-1,2]區間的實數:

i=<1000101110110101000111> → x=0.637197

②計算x的函式值(適應度):

f(x)=xsin(10πx)+2.0=2.586345

模式識別與機器學習(2)

參考部落格 隨機梯度下降 clear all x load ex2data ex2x.dat y load ex2data ex2y.dat x 1.15 1.9 3.06 4.66 6.84 7.95 10,14,16 x power x,0.5 y power x,0.5 m length y ...

模式識別與機器學習(4)

講了推理,以及主要收穫為,原來是對損失函式求導。不過公式不是很對,因為 clear x load ex4data ex4x.dat y load ex4data ex4y.dat m,n size x x ones m,1 x figure pos find y neg find y 0 plot ...

模式識別與機器學習(5)

clear x load ex5data ex5linx.dat y load ex5data ex5liny.dat x load linear regression ex2data ex2x.dat y load linear regression ex2data ex2y.dat plot x...