奇異值分解

2021-06-19 17:59:36 字數 2886 閱讀 7826

奇異值分解(singular value decomposition)是線性代數中一種重要的

矩陣分解,是矩陣分析中正規矩陣酉對角化的推廣。在訊號處理、統計學等領域有重要應用。

1基本介紹

2理論描述

3幾何意義

4範數

5應用

求偽逆 平行奇異值模型

矩陣近似值

奇異值分解在某些方面與

對稱矩陣或

hermite矩陣基於

特徵向量的對角化類似。然而這兩種矩陣分解儘管有其相關性,但還是有明顯的不同。對稱陣特徵向量分解的基礎是譜分析,而奇異值分解則是譜分析理論在任意矩陣上的推廣。

[1]假設m是乙個m×n階矩陣,其中的元素全部屬於域 k,也就是 實數域或複數域。如此則存在乙個分解使得

m = uσv*,

其中u是m×m階酉矩陣;σ是半正定m×n階對角矩陣;而v*,即v的共軛轉置,是n×n階

酉矩陣。這樣的分解就稱作m的奇異值分解。σ對角線上的元素σi,i即為m的奇異值。

常見的做法是為了奇異值由大而小排列。如此σ便能由m唯一確定了。(雖然u和v仍然不能確定。)

直觀的解釋

在矩陣m的奇異值分解中 m = uσv*

·u的列(columns)組成一套對m的正交"輸入"或"分析"的基向量。這些向量是m*m的特徵向量。

·v的列(columns)組成一套對m的正交"輸出"的基向量。這些向量是m*m的特徵向量。

·σ對角線上的元素是奇異值,可視為是在輸入與輸出間進行的標量的"膨脹控制"。這些是m*m及mm*的奇異值,並與u和v的行向量相對應。

奇異值和奇異向量, 以及他們與奇異值分解的關係

乙個非負實數σ是m的乙個奇異值僅當存在km 的單位向量u和kn的單位向量v如下 :

其中向量u 和v分別為σ的左奇異向量和右奇異向量。

對於任意的奇異值分解

矩陣σ的對角線上的元素等於m的奇異值. u和v的列分別是奇異值中的左、右奇異向量。因此,上述定理表明:

乙個m × n的矩陣至少有乙個最多有 p = min(m,n)個不同的奇異值。

總是可以找到在km 的乙個正交基u,組成m的左奇異向量。

總是可以找到和kn的乙個正交基v,組成m的右奇異向量。

如果乙個奇異值中可以找到兩個左(或右)奇異向量是

線性相關的,則稱為退化。

非退化的奇異值具有唯一的左、右奇異向量,取決於所乘的單位相位因子eiφ(根據實際訊號)。因此,如果m的所有奇異值都是非退化且非零,則它的奇異值分解是唯一的,因為u中的一列要乘以乙個單位相位因子且同時v中相應的列也要乘以同乙個相位因子。

根據定義,退化的奇異值具有不唯一的奇異向量。因為,如果u1和u2為奇異值σ的兩個左奇異向量,則兩個向量的任意規範線性組合也是奇異值σ乙個左奇異向量,類似的,右奇異向量也具有相同的性質。因此,如果m 具有退化的奇異值,則它的奇異值分解是不唯一的。

因為 u 和

v 向量都是單位化的向量, 我們知道

u的列向量

u1,...,

um組成了

k空間的一組

標準正交基。同樣,

v的列向量

v1,...,

vn也組成了

k空間的一組標準正交基(根據向量空間的標準點積法則).

線性變換

t: k →

k,把向量

nx變換為

mx。考慮到這些標準正交基,這個變換描述起來就很簡單了:

t( vi) =

σi ui, for

i = 1,...,min(

m, n), 其中

σi 是對角陣σ中的第

i個元素; 當

i > min(

m, n)時,

t( vi) = 0。

這樣,svd理論的幾何意義就可以做如下的歸納:對於每乙個線性對映

t: k →

k, t把

k的第i個基向量對映為

k的第i個 基向量的非負倍數,然後將餘下的基向量對映為零向量。對照這些基向量,對映

t就可以表示為乙個非負對角陣。

1. 矩陣範數的概念 設a∈cm×n,定義乙個實值函式||a||,若滿足:

(1) 非負性:||a||≥0,且||a||=0當且僅當a=0; (2) 齊次性:||aa||=|a| ||a||,a∈c; (3) 三角不等式:||a+b||≤||a||+||b||,a,b∈ cm×n; (4) 相容性:||ab||≤||a|| ||b||

則稱||a||為a的矩陣範數。 例1 設a=(aij)∈cn×n,則

都是定理2:由向量的1-範數、2-範數和∞-範數分別誘導出的矩陣範數分別是

通常依次稱為列和範數、譜範數和行和範數。

定理3:譜範數和f-範數都是酉不變範數,即對於任意酉矩陣p和q,有||paq||=||a||。

奇異值分解可以被用來計算矩陣的偽逆。若矩陣

m 的奇異值分解為 ,那麼

m 的偽逆為

其中 σ 是將σ轉置,並將其主對角線上每個非零元素都求倒數得到的。求偽逆通常可以用來求解線性最小平方問題。

把頻率選擇性衰落通道進行分解.

奇異值分解在統計中的主要應用為主成分分析(pca),種資料分析方法,用來找出大量資料中所隱含的「模式」,它可以用在模式識別,資料壓縮等方面。pca演算法的作用是把資料集對映到低維空間中去。 資料集的特徵值(在svd中用奇異值表徵)按照重要性排列,降維的過程就是捨棄不重要的特徵向量的過程,而剩下的特徵向量組成的空間即為降維後的空間。

幾種程式語言中計算svd的函式範例

matlab:

[b c d]=svd(x)

opencv:

void cvsvd( cvarr* a, cvarr* w, cvarr* u=null, cvarr* v=null, int flags=0 )

奇異值分解

從幾何 的角度上來看奇異值分解 上圖表明任意的矩陣 a 是可以分解成三個矩陣相乘的形式。v表示了原始域的標準正交基,u表示經過a 變換後的co domain的標準正交基,表示了v 中的向量與u中相對應向量之間的關係。我們仔細觀察上圖發現,線性變換a可以分解為旋轉 縮放 旋轉這三種基本線性變換。接下來...

奇異值分解

本文 知乎 我們先舉乙個例子,假設現在我們拿到這樣一組資料,裡面有兩個屬性,既有以 千公尺 每小時 度量的最大速度特徵,也有 英里 小時 的最大速度特徵,顯然我們一眼就看出這兩個特徵有乙個多餘。怎麼直觀的判斷資料是否冗餘?上圖從左往右,我們可以發現資料之間的關聯性越來越強,也就是說兩組資料越來越 相...

奇異值和奇異值分解

理論 假設m是乙個m n階矩陣,其中的元素全部屬於域 k,也就是 實數域或複數域。如此則存在乙個分解使得 m u v 其中u是m m階酉矩陣 是半正定m n階對角矩陣 而v 即v的共軛轉置,是n n階酉矩陣。這樣的分解就稱作m的奇異值分解。對角線上的元素 i,i即為m的奇異值。直觀的解釋 在矩陣m的...