PCA與SVD的區別和聯絡

2021-09-03 01:28:42 字數 403 閱讀 8228

因為之前在做pca的時候,就直接用的svd求解,以為svd屬於pca的一部分,看了一下兩篇博文,有一定收穫。注意,左奇異向量和右奇異向量是針對資料x而言的:

注意到協方差矩陣的特點:實對稱,且大小為 d * d,d為資料x的維度。

因此,當x每一行為乙個樣本,對應協方差矩陣為,x.t * x,需要求左奇異向量u,並且取其前k個,則壓縮後的單個樣本為

uk.t*x

反之,求右奇異向量。

pca:從最大方差角度看,其投影向量為特徵值對應的特徵向量。因此可直接對協方差求特徵值和特徵向量。

svd:是pca的一種實現方式。一次可以得到兩個方向的向量。

部落格:是對x進行svd分解,但實際在做的時候是對x.t * x 進行svd分解,見:

特徵降維/articles/pca.html

PCA和SVD區別和聯絡

pca principal component analysis 和svd singular value decomposition 是兩種常用的降維方法,在機器學習等領域有廣泛的應用。本文主要介紹這兩種方法之間的區別和聯絡。圖1.尋找主成分方向 pca的中文名叫做主成分分析,是降維和去噪的一種重要...

PCA 和 SVD 的區別和聯絡

兩者的基礎都是 求解特徵值 特徵向量 矩陣對向量的乘法,其實是矩陣對此向量的旋轉和拉伸。如果矩陣對某個向量v只拉伸而不旋轉,那麼v就是該矩陣的eigenvector,拉伸比就是eigenvalue.是對乙個維度的分析,比如對features分析,可以實現特徵降維。a u vta u sigma v ...

奇異值分解(SVD)與PCA

奇異值分解在資料降維中有較多的應用,比如pca 影象壓縮。參考文章 x 二維陣列 svd v,np.linalg.svd x,full matrices 1,compute uv 1 svd v就是算出的奇異值。主成分分析 pca scikit learn的pca演算法的背後真正的實現就是用的svd...