乙個月刷完機器學習筆試題300題(12)

2021-08-30 21:28:47 字數 1479 閱讀 3208

1、假定你用乙個線性svm分類器求解二類分類問題,如下圖所示,這些用紅色圓圈起來的點表示支援向量

如果移除這些圈起來的資料,決策邊界(即分離超平面)是否會發生改變?

ayesbno

正確答案是: b

從資料的分布來看,移除那三個資料,決策邊界不會受影響。

2、如果將資料中除圈起來的三個點以外的其他資料全部移除,那麼決策邊界是否會改變?

b不會正確答案是: b

決策邊界只會被支援向量影響,跟其他點無關。

3、關於svm泛化誤差描述正確的是

a超平面與支援向量之間距離

bsvm對未知資料的**能力

csvm的誤差閾值

正確答案是: b

統計學中的泛化誤差是指對模型對未知資料的**能力。

4、以下關於硬間隔hard margin描述正確的是

asvm允許分類存在微小誤差

bsvm允許分類是有大量誤差

正確答案是:a

硬間隔意味著svm在分類時很嚴格,在訓練集上表現盡可能好,有可能會造成過擬合。

5、訓練svm的最小時間複雜度為o(n2),那麼一下哪種資料集不適合用svm?

a大資料集

b小資料集

c中等大小資料集

d和資料集大小無關

正確答案是:a

有明確分類邊界的資料集最適合svm

6、svm的效率依賴於

a核函式的選擇

b核引數

c軟間隔引數

d以上所有

正確答案是:d

svm的效率依賴於以上三個基本要求,它能夠提高效率,降低誤差和過擬合

7、支援向量是那些最接近決策平面的資料點a對

b錯正確答案是:a

支援向量就在間隔邊界上 ????

軟間隔會不成立吧,分類錯誤的更近。

8、svm在下列那種情況下表現糟糕

a線性可分資料

b清洗過的資料

c含雜訊資料與重疊資料點

正確答案是:c

當資料中含有雜訊資料與重疊的點時,要畫出乾淨利落且無誤分類的超平面很難

9、假定你使用了乙個很大γ值的rbf核,這意味著:

a模型將考慮使用遠離超平面的點建模

b模型僅使用接近超平面的點來建模

c模型不會被點到超平面的距離所影響

d以上都不正確

正確答案是: b

svm調參中的γ衡量距離超平面遠近的點的影響。

對於較小的γ,模型受到嚴格約束,會考慮訓練集中的所有點,而沒有真正獲取到資料的模式、對於較大的γ,模型能很好地學習到模型。

10、svm中的代價引數表示:

a交叉驗證的次數

b使用的核

c誤分類與模型複雜性之間的平衡

d以上均不是

正確答案是:c

代價引數決定著svm能夠在多大程度上適配訓練資料。

如果你想要乙個平穩的決策平面,代價會比較低;如果你要將更多的資料正確分類,代價會比較高。可以簡單的理解為誤分類的代價。

乙個月刷完機器學習筆試題300題(8)

1 對於下圖,最好的主成分選擇是多少 b30c35 dcan t say 正確答案是 b 主成分選擇使variance越大越好,在這個前提下,主成分越少越好。2 資料科學家可能會同時使用多個演算法 模型 進行 並且最後把這些演算法的結果整合起來進行最後的 整合學習 以下對整合學習說法正確的是 a單個...

乙個月刷完機器學習筆試題300題(9)

1 對於下面三個模型的訓練情況,下面說法正確的是 第一張圖的訓練錯誤與其餘兩張圖相比,是最大的 最後一張圖的訓練效果最好,因為訓練錯誤最小 第二張圖比第一和第三張圖魯棒性更強,是三個裡面表現最好的模型 第三張圖相對前兩張圖過擬合了 三個圖表現一樣,因為我們還沒有測試資料集 a 1 和 3 b 1 和...

頹廢的乙個月

哎,九月末到十月末實在是太頹廢了。其實是因為不想面對一些事。但現在想想,是我自己忘記了最初的夢想,之去追求一些有的沒的的,所以才如此不精進。記得那幾天玩的也不好,每每想到自己還沒學好,還是個醬油的時候,就很煩惱。室友也說我,為什麼最近不怎麼去實驗室了?我也不知道怎麼回答。甚至可以躺床上一整天,一直躺...