UFLDL 06 PCA 主成分分析法

2021-07-11 13:04:26 字數 914 閱讀 4276

principal components analysis,是一種無監督學習方法,主要是用來將特徵的主要分成找出,並去掉基本無關的成分,從而達到降維的目的。pca的用處很多,此處不做詳述。

整理方程得到a的係數矩陣

也就是說

λ 是r的特徵值,a是其特徵向量,都可以求出。由於

λ 也是主成分的方差,所以越大的

λ 值對應的主成分也就越重要。

下面對應,ufldl上的例項做些基本的解釋

1. ufldl中的μ1

便是上面的a1

,都是對應

λ 最大的對應的經過預處理的x的特徵向量

2. 新的特徵中的值可以看做是由原特徵為基的座標對應的值轉化為以f為基的新座標中的值,及變化時需要左乘at

經過上面的變化,已經將原來的特徵轉化為了新的特徵,並且知道了新的特徵的重要性,經過變化之後可能得到,部分新的特徵的相對重要性非常小(得到的對應

λ 相對非常小),這就說明,這些新特徵並不是很重要,所以可以將這些特徵去掉

屢一下;

1. 計算原特徵值的相關係數矩陣

2. 計算此相關係數矩陣的特徵值和特徵向量

3. 選擇包含一定資訊量的特徵值對應的特徵向量,再加上0向量,得到新的k

4. ktx

得到新的特徵的數值

5. akt

x 得到還原之後在原特徵下的值

在處理普通的直接拍攝的時不需要進行方差的歸一化,使用整個的均值進行零均值化操作即可

在處理別的的時候需要進行其他處理

pca主成分分析 PCA主成分分析(中)

矩陣 matrix,很容易讓人們想到那部著名的科幻電影 駭客帝國 事實上,我們又何嘗不是真的生活在matrix中。機器學習處理的大多數資料,都是以 矩陣 形式儲存的。矩陣是向量的組合,而乙個向量代表一組資料,資料又是多維度的。比如每個人的都具有身高 體重 長相 性情等多個維度的資訊資料,而這些多維度...

主成分分析PCA

主要參考這篇文章 個人總結 pca是一種對取樣資料提取主要成分,從而達到降維的目的。相比於上篇文章介紹到的svd降維不同,svd降維是指減少資料的儲存空間,資料的實際資訊沒有缺少。個人感覺pca更類似與svd的去噪的過程。pca求解過程中,涉及到了svd的使用。針對資料集d 假設di 的維度為 w ...

PCA 主成分分析

在進行影象的特徵提取的過程中,提取的特徵維數太多經常會導致特徵匹配時過於複雜,消耗系統資源,不得不採用特徵降維的方法。所謂特徵降維,即採用乙個低緯度的特徵來表示高緯度。將高緯度的特徵經過某個函式對映至低緯度作為新的特徵。pca和lda區別 pca是從特徵的角度協方差角度 求出協方差矩陣的特徵值和特徵...