關於PCA演算法的學習

2022-09-16 12:54:10 字數 502 閱讀 7890

先**幾份比較簡單的介紹,後面作補充。

協方差就是這樣一種用來度量兩個隨機變數關係的統計量

,我們可以仿照方差的定義:

來度量各個維度偏離其均值的程度,協方差可以這麼來定義:

那麼,協方差的結果有什麼意義呢?如果結果為正值,則說明兩個隨機變數是正相關的(從協方差可以引出「相關係數」的定義),

結果為負值就說明負相關的;如果為0,也是就是統計上說的「相互獨立」。

從協方差的定義上我們也可以看出一些顯而易見的性質,如:

協方差矩陣:

pca演算法:

關於PCA演算法學習心得

壓縮的實質就是針對樣本的屬性,讓單個屬性的方差最大,讓樣本之間的協方差的為零。pca演算法的是針對原始樣本的協方差c的變換,通過對協方差矩陣c的對角化,找到對映後的樣本的協方差矩陣y。需要注意的是,此時d是對角陣,從而滿足了我們優化的要求 協方差為零,方差最大。d 1myy t1m px px t ...

機器學習演算法的PCA思想

pca顧名思義,就是找出資料裡最主要的方面,用資料裡最主要的方面來代替原始資料。具體的,假如我們的資料集是n維的,共有m個資料 x 1 x 2 x m 我們希望將這m個資料的維度從n維降到n 維,希望這m個n 維的資料集盡可能的代表原始資料集。我們知道資料從n維降到n 維肯定會有損失,但是我們希望損...

PCA演算法學習 2 PCA理論的matlab實現

本文 前言 在前面的博文pca演算法學習 1 opencv中pca實現人臉降維 中已經初步介紹了pca演算法的大概流程及在人臉降維上面的應用。本文就進一步介紹下其理論基礎和matlab的實現 也是網上學者的 開發環境 matlab2012a 基礎 假設x是乙個m n的矩陣,是由樣本資料構成的矩陣。其...