理解矩陣特徵值及應用

2021-09-30 13:12:54 字數 729 閱讀 4729

將n階對稱矩陣a分解,用n個特徵向量q和特徵值 σ 來表示,不同特徵值對應的特徵向量是相互正交的。

特徵向量和特徵值可以很好的描述原始矩陣,方便實際應用。將矩陣投影在特徵向量上,特徵值即投影長度。特徵值越大,表示矩陣在對應特徵向量上資訊量越大,導數越大。反之,特徵值越小,表示資訊量較少,也可刪除對應特徵向量上的資料,降維減少資料量。可應用於最優化求解,影象處理(如特徵點描述和特徵提取等),資料探勘(如資料降維等)。

知乎上很多大牛,會把很多貌似很深奧的東西解釋的很容易理解。

另該鏈結上降維協方差矩陣計算寫的比較模糊,可以參考pca主成份分析

其中3個維度協方差計算公式

matlab**(其中a為樣品矩陣)

c = cov(a)
簡化求法

先讓樣本矩陣中心化,即每一維度減去該維度的均值,然後直接用新的到的樣本矩陣乘上它的轉置,然後除以(n-1)即可。計算結果與上述相同。

matlab**(其中a為樣品矩陣,n為樣品數)

b= a-repmat(mean(a),n,1);

c = b'*b/(n-1)

理解矩陣特徵值與特徵向量

從線性空間的角度看,在乙個定義了內積的線性空間裡,對乙個n階 對稱方陣進行特徵分解,就是產生了該空間的n個標準正交基,然後把矩陣投影到這n個基上。n個特徵向量就是n個標準正交基,而特徵值的模則代表矩陣在每個基上的投影長度。特徵值越大,說明矩陣在對應的特徵向量上的方差越大,功率越大,資訊量越多。1 應...

利用特徵值分解理解矩陣特徵值和特徵向量的幾何意義

本文發自 一直有乙個疑問,矩陣的特徵值和特徵向量到底代表了矩陣的什麼性質?尤其是特徵值還被稱為矩陣的eigenvalues 然後看了知乎上的一些解釋,也未能得到較好的理解,有些太理論 然後本文就從自己現有知識體系下解釋一下矩陣的特徵向量與特徵值的幾何意義。有如下公式,x y 為向量,a 為矩陣,而且...

Math 矩陣特徵值

特徵值問題 ax lamda x a lamda i x 0 b a lamda i 特徵值與特徵向量 將矩陣a都看做線性變換 這一點在程雲鵬的 矩陣論 中也是這麼做的 矩陣a左乘乙個向量x,就是對這個向量x做線性變換。對於向量x來說,總是存在那麼些線性變換的方法,能夠將x的方向不變化 也就是不改變...