機器學習面試問題10

2021-07-15 21:51:25 字數 544 閱讀 4300

線性分類器:模型是引數的線性函式,分類平面是(超)平面;

非線性分類器:模型分介面可以是曲面或者超平面的組合。

典型的線性分類器有感知機,lda,邏輯斯特回歸,svm(線性核);

典型的非線性分類器有樸素貝葉斯(有文章說這個本質是線性的,決策樹,svm(非線性核)

線性分類器判別簡單、易實現、且需要的計算量和儲存量小。

如果訓練集很小,那麼高偏差/低方差分類器(如樸素貝葉斯分類器)要優於低偏差/高方差分類器(如k近鄰分類器),因為後者容易過擬合。然而,隨著訓練集的增大,低偏差/高方差分類器將開始勝出(它們具有較低的漸近誤差),因為高偏差分類器不足以提供準確的模型。你也可以認為這是生成模型與判別模型的區別。

選擇非線性分類器。

選擇線性分類器。

總結:

如果分類面是二維平面,就選擇線性分類器,如果是曲面,就選擇非線性分類器。

比較詳細的部落格可參見:

機器學習面試問題1

監督 輸入的資料有明確的標識,可建立模型做 多用於分類和回歸。非監督 資料並不被特別標識,需要建立模型得出資料的內在結構,多用於聚類。l1範數 l1 norm 是指向量中各個元素絕對值之和,也有個美稱叫 稀疏規則運算元 lasso regularization 比如 向量a 1,1,3 那麼a的l1...

機器學習面試問題2

logistic 邏輯回歸 是一種廣義線性回歸分析模型,是一種分類演算法。通過函式l將w x b對應乙個隱狀態p,p l w x b 然後根據p 與1 p的大小決定因變數的值。l是logistic函式.該模型是典型的數學模型,它服從邏輯斯蒂分布。二項邏輯斯蒂回歸模型是如下的條件概率分布 在這裡,x是...

機器學習面試問題 1

常用特徵歸一化 線性函式 xno rm x xmi nxma x xm inx frac x xnorm xma x x min x xm in 零均值歸一化 z x x z frac z x x 使用歸一化可以使得特徵變得更為一致,容易更快地通過梯度下降找到最優解。ps 決策樹不適用歸一化,因為以...