機器學習 周志華 讀書筆記 課後習題 第二章

2021-08-27 08:57:06 字數 1474 閱讀 9249

錯誤率:分類錯誤的樣本佔樣本總數的比例。  e = a/m

精度:1 - a/m

訓練誤差/經驗誤差:訓練集上的誤差

泛化誤差:新樣本上的誤差。

區分資料集,把資料集分為兩部分,一部分是訓練集s另外一部分是測試集t

乙個資料集分成互斥的兩部分,分別作為訓練集和測試集。可以通過分層取樣的方法,保證兩個資料集的資料分布一致。

一般會多次區分資料集得到多次結果,然後得出平均值最為最終結果。

從資料集d中通過分層取樣得到k個大小相似的互斥子集。

每次選擇k-1個子集的並集作為訓練集,另外乙個作為測試集。最終可以進行k次訓練和測試。最終返回k次的平均值。這種方法通常也被成為「k折交叉驗證」。k的最常用取值是10.

如果在每次劃分k個不同子集的時候,根據不同的劃分規則,可以得到不同的k個子集。結合之前的留出法,就可以產生p次k折交叉驗證。最常見的是10次10折交叉驗證。

當k等於樣本個數時,變成留一法。

從資料集d中取出放回m次形成乙個新的資料集d',d'與d相同大小。但是會存在部分資料重複。d中會有

(1−1/m)m個資料不會被放到d'中。大約佔0.368。然後用d'作訓練集,d作測試集。

自助法在資料集較小,難以有效劃分訓練/測試集的時候很有用。但是自助法改變了初始資料集的分布,會引入估計偏差。所以當資料足夠時,還是使用留出法和交叉驗證法。

調整演算法引數和最終使用全部資料訓練出最終模型。

效能度量:衡量模型泛化能力的評價標準。

回歸任務最常用的效能度量時「均方誤差」。

真正例tp、假正例fp、真反例tn、假反例fn

可以組成混淆矩陣

分類結果混淆矩陣

**結果

真實情況

正例反例

正例真正例tp

假反例fn

反例假正例fp

真反例tn

查準率p = tp / tp+fp

查全率r = tp / tp+fn

查全和查準都時針對正例,查準率是**為正例中正確的概率。查全率是正例中被**為正例的概率。

查準率-查全率曲線-p-r曲線-p-r圖

通過「平衡點」bep 查準率=查全率時的取值,對比不同學習器的優劣。

因為bep過於簡單,所以通常使用f1度量來評判學習器的好壞。

f1 = (2 * p * r) / (p + r) = (2 * tp)/ (m + tp -tn)

fβ = ((1+β2)∗p∗r)  /   ((β2∗p)+r) 。β=1退化為標準f1度量,β<1查全率有更大影響,β>1查準率有更大影響。

多個混淆矩陣綜合考察時有兩種方法。

第一種,平均每個混淆矩陣的p,r,f的平均值,稱為 「巨集」

第二種,平局tp、fp、tn、fn之後計算p、r、f,成為 「微」

roc:一般情況下泛化效能的好壞。

根據學習器的**結果對樣例進行排序,按此順序逐個把樣本作為正例進行**,每次計算出兩個重要量的值,分別以他們為橫、縱座標作圖,就得到了roc曲線。 

周志華 機器學習 讀書筆記

分類 classification 的是離散值,比如 好瓜 壞瓜 回歸 regression 的是連續值,例如西瓜成熟度 0.79 0.95 泛化 generalization 學得模型適用於新樣本的能力,稱為 泛化 generalization 能力.資料探勘 data mining 從海量資料中...

《機器學習》周志華讀書筆記(一)緒論

什麼是機器學習?mitchell,1997 假設用p來評估電腦程式在某任務類t上的效能,若乙個程式通過利用經驗e在t中任務上獲得了效能改善,則我們就說關於t和p,該程式對e進行了學習。全文第1章緒論部分重點介紹了機器學習中的基本術語 假設空間 歸納偏好 發展歷程與現狀 基本術語 以一批西瓜為例 估計...

《機器學習》周志華 讀書筆記二補充(原創)

第2章 模型評估與選擇 p24 p51 2017 2 24 fri model selection模型選擇 選用哪種學習演算法 使用哪種引數配置 理想的解決方案 對候選模型的泛化誤差進行評估,再選擇泛化誤差最小的那個模型 通過實驗來對學習器的泛化誤差進行評估並進而做出選擇 hold out留出法 將...