題目一:
對應gradientboosting tree演算法, 以下說法正確的是:
1. 當增加最小樣本**個數,我們可以抵制過擬合
2. 當增加最小樣本**個數,會導致過擬合
3. 當我們減少訓練單個學習器的樣本個數,我們可以降低variance
4. 當我們減少訓練單個學習器的樣本個數,我們可以降低bias
a2 和 4
b2 和 3
c1 和 3
d1 和 4
解析:答案: c
最小樣本**個數是用來控制「過擬合」引數。太高的值會導致「欠擬合」,這個引數應該用交叉驗證來調節。
偏差:這裡的偏指的是 偏離 , 那麼它偏離了什麼到導致了誤差? 潛意識上, 當談到這個詞時, 我們可能會認為它是偏離了某個潛在的 「標準」, 而這裡這個 「標準」 也就是真實情況 (ground truth). 在分類任務中, 這個 「標準」 就是真實標籤 (label).
方差:乙個隨機變數的方差描述的是它的離散程度, 也就是該隨機變數在其期望值附近的 波動程度 .
題目二:
以下哪個圖是knn演算法的訓練邊界a
bb
ac
dd
ce
都不是解析:答案: b
knn演算法肯定不是線性的邊界, 所以直的邊界就不用考慮了。另外這個演算法是看周圍最近的k個樣本的分類用以確定分類,所以邊界一定是坑坑窪窪的。
題目三:
變數選擇是用來選擇最好的判別器子集, 如果要考慮模型效率,我們應該做哪些變數選擇的考慮?a1. 多個變數其實有相同的用處
2. 變數對於模型的解釋有多大作用
3. 特徵攜帶的資訊
4. 交叉驗證
1 和 4b
1, 2 和 3c
1,3 和 4d
以上所有解析:答案: c
注意, 這題的題眼是考慮模型效率,所以不要考慮選項2.
題目四:
對於線性回歸模型,包括附加變數在內,以下的可能正確的是 :a1. r-squared 和 adjusted r-squared都是遞增的
2. r-squared 是常量的,adjusted r-squared是遞增的
3. r-squared 是遞減的, adjusted r-squared 也是遞減的
4. r-squared 是遞減的, adjusted r-squared是遞增的
1 和 2b
1 和 3c
2 和 4d
以上都不是解析:答案: d
r-squared不能決定係數估計和**偏差,這就是為什麼我們要估計殘差圖。但是,r-squared有r-squared 和 predicted r-squared 所沒有的問題。 每次你為模型加入**器,r-squared遞增或不變.
演算法刷題 筆記(Day2)
題目描述 判斷乙個整數是否是回文數。回文數是指正序 從左向右 和倒序 從右向左 讀都是一樣的整數。解題思路 一 1.回文數的先決條件x 0.2.利用序列型別資料的性質,先轉字串再進行切片翻轉str 1 題解 class solution def ispalindrome self,x int boo...
刷題總結(2)
1.成員變數可以不用初始化,系統預設給值,區域性變數必須初始化 靜態final成員變數無預設值,必須初始化,並且由final修飾的只能賦值一次 2.100 3 1 100 3.0 1.0 3.取餘 rem 3,2 1 取模 mod 3,2 1 rem結果與被除數相同,mod結果與除數相同 4.mat...
演算法刷題ING
給定字串j代表石頭中寶石的型別,和字串s代表你擁有的石頭。s中每個字元代表了一種你擁有的石頭的型別,你想知道你擁有的石頭中有多少是寶石。j中的字母不重複,j和s中的所有字元都是字母。字母區分大小寫,因此 a 和 a 是不同型別的石頭。示例 輸入 j aa s aaabbbb 輸出 3class so...