輕鬆理解 Fisher判別

2021-06-20 15:11:13 字數 629 閱讀 7728

以前看費舍爾判別,老是看一點就看不下去,今天耐著性子看完後,發現這個東西真的是很神奇,而且是線性判別,最後只要計算乙個向量乘法和減法,然後比較最小值就能解決判別問題,下面用例子講比較好理解,我們來判斷乙個東西是人,猴,豬,狗?四個總體,可以包含幾個分量,比如重量,身高,智商,情商這四個分量,所以現在有了四個總體(分別是四維向量),期望和協方差陣已知,給乙個輸入向量(必然是四維向量),判斷這個東西是哪一類,這個叫判別問題。

費舍爾判別是將輸入向量x,乘以向量a,變成y,即:y=a'x;a 在這裡是乙個四維向量,這樣把四維變一維。費舍爾判別最重要的就是求 a .

因為對輸入x做了轉化,所以對四個總體也要變化一下,期望u 變成a'u,協方差陣v 變成a'va, 這樣期望和方差都成了一維的,為了分類準確,肯定是類的組內距離最小,組間距離最大,而且是組間距離除以組內距離的比值最大,這樣可以構成乙個 方程,當然是含有向量的,這個方程的解有公式定理,其實這個a 就是  乙個特徵向量,因為打字不方便有關的公式我就不寫了,求出a 後,那麼:判別函式 y=a'x 就知道了, 求四個差值|a'x-a'u| 哪個u使得這個差最小 ,那麼x就是哪一類 。

上面有關公式的,可以不用管, 費舍爾判別就是 求乙個 函式:y=a'x ,將多維向量變成一維 ,還是線性的,然後就和一維判別一樣,求它和期望的最小值就行了。

fisher線性判別 判別分析 Fisher判別

上期 判別分析概述 中我們提到,判別分析 discriminant analysis 是根據判別物件若干個指標的觀測結果判定其應屬於哪一類的資料統計方法,其中fisher判別一般用於指標為定量資料的兩類判別,bayes判別多用於指標為定量資料的多類判別,同時,兩者均可利用spss完成,但在運用和解讀...

Fisher線性判別

我們知道,基於樣本直接設計分類器需要三個基本要素 判別函式型別 分類器設計準則 尋優演算法。這裡我們討論的線性判別函式型別為 g x w tx w 0 採用不同的準則和不同的尋優演算法就會得到不同的線性分類器。一 線性判別函式 剛才我們說了,線性分類器的判別函式型是線性判別函式 g x wtx w0...

Fisher判別分析

將高維度空間的樣本投影到低維空間上,使得投影後的樣本資料在新的子空間上有最小的類內距離以及最大的類間距離,使得在該子空間上有最佳的可分離性 可以看出右側投影後具有更好的可分離性。剛學完感覺兩個很類似,實際上兩個方法是從不同的角度來降維。pca是找到方差盡可能大的維度,使得資訊盡可能都儲存,不考慮樣本...