主成分分析PCA

2021-07-09 23:00:45 字數 655 閱讀 1291

主要參考這篇文章:

個人總結:

pca是一種對取樣資料提取主要成分,從而達到降維的目的。相比於上篇文章介紹到的svd降維不同,svd降維是指減少資料的儲存空間,資料的實際資訊沒有缺少。個人感覺pca更類似與svd的去噪的過程。

pca求解過程中,涉及到了svd的使用。

針對資料集d=

(假設di

的維度為

w ),pca求解步驟如下:

求解資料中心u0

=(d1

+d2+

....

.dn)/n;

獲得殘差ξi

=di−u0;

求取矩陣s=

[ξ1,

ξ2..

..ξn

] 的協方差矩陣

c ;獲得c

對應的特徵值

以及對應的特徵向量

;若要進行降為操作,可以選取特徵值

對應的特徵向量

,組合成投影矩陣n=

[l1,

l2..

..lk

] ;

降維後的資料就是ne

wdat

an∗k

=dw∗

ntnw

∗k;

ps:w

>

k

pca主成分分析 PCA主成分分析(中)

矩陣 matrix,很容易讓人們想到那部著名的科幻電影 駭客帝國 事實上,我們又何嘗不是真的生活在matrix中。機器學習處理的大多數資料,都是以 矩陣 形式儲存的。矩陣是向量的組合,而乙個向量代表一組資料,資料又是多維度的。比如每個人的都具有身高 體重 長相 性情等多個維度的資訊資料,而這些多維度...

PCA 主成分分析

在進行影象的特徵提取的過程中,提取的特徵維數太多經常會導致特徵匹配時過於複雜,消耗系統資源,不得不採用特徵降維的方法。所謂特徵降維,即採用乙個低緯度的特徵來表示高緯度。將高緯度的特徵經過某個函式對映至低緯度作為新的特徵。pca和lda區別 pca是從特徵的角度協方差角度 求出協方差矩陣的特徵值和特徵...

主成分分析PCA

我們所說的向量其實是向量座標和向量空間的基構成的線性組合。要準確的描述向量,首先需要確定向量空間的一組基,然後 在通常的二維座標系中,我們選中基為 1 0 t 和 0,1 t 那麼對於向量 3 2 其實它是3 1,0 t 2 0,1 t 通常基為列向量,在進行座標變換時,通常將基作為行向量,與原空間...