機器學習筆試題一

2021-08-22 07:26:13 字數 1563 閱讀 1190

1.輸入大小為200×200,依次經過一層卷積(kernel size 5×5,padding 1,stride 2),pooling(kernel size 3×3,padding 0,stride 1),又一層卷積(kernel size 3×3,padding 1,stride 1)之後,輸出特徵圖大小是多少?

分析:

(1) 只經過一層卷積和時尺寸改變:n−

f+1 n−f

+1

,其中n n

為輸入的尺寸,

f' role="presentation">f

f為卷積核的尺寸

(2) 在邊緣填充p層之後再經過一層卷積:n+

2p−f

+1n +2

p−f+

1(3) 卷積核的步長(stride)為s:n+

2p−f

s+1 n+2

p−fs

+1

(4) pooling與卷積核對尺寸的改變相同:n−

f+1 n−f

+1

,其中n n

為輸入尺寸,

f' role="presentation">f

f為pooling核的尺寸

第一層: si

ze1=

200+2×

1−52

+1=99.5

s iz

e1

=200+2

×1−5

2+1=

99.5

這就尷尬了,怎麼會有小數?

這種情況在googlenet中遇到過,解決的辦法就是:卷積向下取整,池化向上取整。

所以經過第一層卷積之後大小為98x98。

第二層: si

ze2=

99−3+

1=97 siz

e2=99

−3+1

=97

第三層: si

ze3=

97+2×

1−3+

1=97 siz

e3=97

+2×1

−3+1

=97

2.在統計模式識分類問題中,當先驗概率未知時,可以使用(bc)?

分析:

最小最大損失準則:考慮p(c)變化的條件下,是風險最小

最小誤判概率準則, 就是判斷p(c1|x)和p(c2|x)哪個大,x為特徵向量,c1和c2為兩分類,根據貝葉斯公式,需要用到先驗知識;

最小損失準則,最小最大損失準則基礎之上,還要求出p(c1|x)和p(c2|x)的期望損失,需要先驗概率

n-p判決,即限定一類錯誤率條件下使另一類錯誤率為最小的兩類別決策,即在一類錯誤率固定的條件下,求另一類錯誤率的極小值的問題,直接計算p(x|w1)和p(x|w2)的比值,不需要用到貝葉斯公式。

3.假定某同學使用***** bayesian(nb)分類模型時,不小心將訓練資料的兩個維度搞重複了,那麼關於nb的說法中正確的是:bd

4.下列哪些方法可以用來對高維資料進行降維:

各個降維方法總結:

機器學習筆試題(一)

判別方法 由資料直接學習決策函式 y f x 或者由條件分布概率 p y x 作為 模型,即判別模型。生成方法 由資料學習聯合概率密度分布函式 p x,y 然後求出條件概率分布p y x 作為 的模型,即生成模型。由生成模型可以得到判別模型,但由判別模型得不到生成模型。常見判別模型 k近鄰 svm ...

機器學習 機器學習試題 一

在網上找的一些試題及延伸的一些問題,以選擇題為主,主要是關於基礎理論知識,同時給出自己聯想到的一些問題。當然基礎問題應當包含演算法本身的過程和某些推導過程。比如 lr svm的推導。試題1 已知座標軸中兩點a 2,2 b 1,2 求 這兩點的曼哈頓距離 l1距離 答案 7 向量ab 3,4 l1 是...

機器學習筆試

分詞方法大致可分為三大類 基於字串匹配的分詞方法 機械分詞方法 基於統計的分詞方法和基於理解的分詞方法。機械分詞方法主要有整箱最大匹配演算法 逆向最大匹配演算法 雙向最大匹配演算法和最少切分演算法。id3演算法要求特徵必須離散化 主動學習方法 有時候,有類標號的資料比較稀少而沒有類標號的資料相當豐富...