機器學習題 含答案和解析

2021-10-21 13:33:31 字數 1675 閱讀 4562

1. 目標變數在訓練集上的7個實際值為[1,1,1,1,0,0,0],目標變數的熵近似值是(log3/7=-0.847,log4/7=-0.560)?

a  0.683

b  -0.683

c  0.724

d  -0.243

2. 關於k-means聚類演算法說法不正確的是

a  對大資料集有較高的效率並且具有可伸縮性。

b  是一種無監督學習方法。

c  k值無法自動獲取,初始聚類中心隨機選擇。

d  初始聚類中心的選擇對聚類結果影響不大。

3. 下列有關svm說法不正確的是

a  svm使用核函式的過程實質是進行特徵轉換的過程

b  svm對線性不可分的資料有較好的分類效能

c  svm因為使用了核函式,因此它沒有過擬合的風險

d  svm的支援向量是少數的幾個資料點向量

4. 在機器學習中需要劃分資料集,下面方法哪個不屬於常用的劃分測試集和訓練集的方法

a  留出法

b  交叉驗證法

c  自助法

d  評分法

5. 下面關於貝葉斯分類器描述錯誤的是

a  以貝葉斯定理為基礎

b  是基於後驗概率,推導出先驗概率

c  可以解決有監督學習的問題

d  可以用極大似然估計法解貝葉斯分類器

6. em演算法(exception maximization algorithm)是機器學習領域的乙個經典演算法,下面關於em演算法的表述中不正確的有

a  em演算法屬於一種分類演算法

b  如果優化的目標函式是凸函式,那麼em演算法一定能找到全域性最優解

c  em演算法可以分為e-step和m-step兩步

d  em演算法可用於從不完整的資料中計算最大似然估計

7. 以下不能有效解決過擬合的方法是

a  增加樣本數量

b  通過特徵選擇減少特徵數量

c  訓練更多的迭代次數

d  採用正則化方法

8. 有關機器學習分類演算法的precision和recall,以下定義中正確的是(假定tp = true positive, tn = true negative, fp = false positive, fn = false negative)

a  precision= tp / (tp + fp), recall = tp / (tp + fn)

b  precision = tp / (tn + fp), recall = tp /(tp + fn)

c  precision = tp / (tn + fn), recall = tp /(tp + fp)

d  precision = tp / (tp + fp), recall = tp /(tn + fn)

9. 下面關於機器學習的理解不正確的是

a  非監督學習的樣本資料是要求帶標籤的

b  監督學習和非監督學習的區別在於是否要求樣本資料帶標籤

c  強化學習以輸入資料作為對模型的反饋

d  卷積神經網路一般用於影象處理等區域性特徵相關的資料

10. 根據是否需要標註資料,機器學習方法可以分為有監督學習和無監督學習。監督學習中的訓練集用於

a  定量評價機器學習效能

b  估算模型

c  驗證模型

d  定性評價機器學習效能

獲取答案和詳細的答案解析:

機器學習題 含答案和解析

1.假設x公司的員工收入分布中位數為 35,000,25 和75 比例處的數值為 21,000 和 53,000。收入 1會被認為是異常值嗎?a 是 b 否 c 需要更多資訊 d 以上都不對 2.眾所周知,身高體重呈正相關。忽略圖表大小 變數被標準化了 下列兩張圖哪張更像描繪身高 x軸 體重 y軸 ...

機器學習題 含答案和解析

a 只有 1 b 只有 2 c 只有 3 2.下面哪個 些超引數的增加可能會造成隨機森林資料過擬合?1 樹的數量 2 樹的深度 3 學習速率 a 只有 1 b 有1 2 c 只有 3 d 都正確 3.下面哪一項對梯度下降 gd 和隨機梯度下降 sgd 的描述是正確的?1 在 gd 和 sgd 中,每...

機器學習題 含答案和解析

1.如下散點圖使用了邏輯回歸 黑線是決策邊界 對所有資料點進行了正確分類。若使用 high infinite regularisation 正則化無限大 時偏差會如何變化?a 偏差很大 b 偏差很小 c 不確定 d 都不是 2.假設,下圖是邏輯回歸的代價函式 現在,圖中有多少個區域性最小值?a 1 ...