機器學習 LDA與PCA演算法

2021-08-11 07:52:07 字數 1138 閱讀 8845

linear discriminant analysis

用途:資料預處理中的降維,分類任務

歷史:ronald a. fisher在2023年提出了線性判別方法

線性判別分析(lda)

目標:lda關心的是能夠最大化類間區分度的座標軸成分

將特徵空間(資料集中的多維樣本)投影到乙個維度更小的 k 維子空間中,

同時保持區分類別的資訊

linear discriminant analysis

原理:投影到維度更低的空間中,使得投影後的點,會形成按類別區分,

一簇一簇的情況,相同類別的點,將會在投影後的空間中更接近方法

線性判別分析(lda)

linear discriminant analysis

監督性:lda是「有監督」的,它計算的是另一類特定的方向

投影:找到更合適分類的空間

線性判別分析(lda)

與pca不同,更關心分類而不是方差

數學原理

原始資料:                                      變換資料:

目標:找到該投影

線性判別分析(lda)

linear discriminant analysis

lda分類的乙個目標是使得不同類別之間的距離越遠越好,

同一類別之中的距離越近越好

每類樣例的均值:

線性判別分析(lda)

投影後的均值:

投影後的兩類樣本中心點盡量分離:

linear discriminant analysis

只最大化j(w)就可以了?

x1的方向可以最大化j(w),但是卻分的不好

線性判別分析(lda)

雜湊值:樣本點的密集程度,值越大,越分散,反之,越集中

同類之間應該越密集些:

linear discriminant analysis

目標函式:

雜湊值公式展開:

線性判別分析(lda)

雜湊矩陣(scatter matrices):

類內散布矩陣 sw = s1+s2:

linear discriminant analysis

目標函式:

分子展開:

線性判別分析(lda)

機器學習 PCA

介紹 pca是一種無監督學習的降維技術 思想1.投影後樣本越分散,保留的資訊越多 2.pca的主要思想是將n維特徵對映到k維上,這k維是全新的正交特徵也被稱為主成分,是在原有n維特徵的基礎上重新構造出來的k維特徵 做法1.將所有的樣本點向直線w投影 2.目標函式 讓投影後樣本的方差極大 第一步 x減...

機器學習演算法的PCA思想

pca顧名思義,就是找出資料裡最主要的方面,用資料裡最主要的方面來代替原始資料。具體的,假如我們的資料集是n維的,共有m個資料 x 1 x 2 x m 我們希望將這m個資料的維度從n維降到n 維,希望這m個n 維的資料集盡可能的代表原始資料集。我們知道資料從n維降到n 維肯定會有損失,但是我們希望損...

白話機器學習演算法(七)LDA

lda也是一種線性變換,其整個證明過程與pca非常相似,找到目標函式,利用特徵值,但是其跟pca的目標是不同的,pca目的是在新座標系中方差最大,lda則是在新座標系中,類內方差盡量小,類間距離盡量大,並以這兩個指標定義乙個目標函式,通過最大化這個目標函式然後得到相應的對映方法,即新座標系 這兩者本...