機器學習之線性判別分析(LDA)

2021-09-13 14:28:10 字數 595 閱讀 3156

根據公式可以計算出sw為:

求其特徵值和特徵向量:value,vector=np.linalg.eig(sw.i*sb)

value=[1.5639568e+17, 8.0000000e+00]

vector=[[0.97421693, -0.22561331],[0.92309826,, 0.38456417]]

這裡選擇特徵值大的對應的向量w=[0.92309826,, 0.38456417]

將原始資料和向量w相乘,得到變換後的資料:

可以從轉換後的資料看出,資料有明顯的分層現象。

lda與pca的區別:

pca無需樣本標籤,屬於無監督學習降維,lda需要樣本標籤,屬於有監督學習降維。pca選擇樣本點投影具有最大方差的方向,lda選擇分類效能最好的方向

原始資料集是d維的,一共有c個類別。pca降維和資料的特徵維度相關,可以從1維一直到d維,而lda降維與樣本類別數c有關,可以從1維到c-1維。

pca投影後的座標系都是正交的,lda根據類別的標註關注分類能力,一般不正交。

LDA 線性判別分析

1.lda是什麼 線性判別式分析 linear discriminant analysis 簡稱為lda。也稱為fisher線性判別 fisher linear discriminant,fld 是模式識別的經典演算法,在1996年由belhumeur引入模式識別和人工智慧領域。基本思想是將高維的模...

線性判別分析LDA

首先搞清楚什麼叫判別分析?discriminant analysis就是根據研究物件的各種特徵值判別其型別歸屬問題的一種多變數統計分析方法。根據判別標準不同,可以分為距離判別 fisher判別 bayes判別法等。比如在knn中用的就是距離判別,當然這裡的 距離 又有好幾種 歐氏距離 街區距離 甚至...

LDA 線性判別分析

定義 1.lda 線性判別式分析 linear discriminant analysis 也稱為fisher線性判別 fisher linear discriminant,fld 基本思想 將高維的模式樣本投影到最佳鑑別向量空間,以達到抽取分類資訊和壓縮特徵空間維數的效果,投影後保證模式樣本在新的...