特徵值特徵向量的形象理解

2022-07-29 20:21:10 字數 785 閱讀 6019

特徵值特徵向量在機器視覺中很重要,很基礎,學了這麼多年數學一直不理解特徵值特徵向量到底表達的物理意義是什麼,在人工智慧領域到底怎麼用他們處理資料,當然筆者並不打算把文章寫成純數學文章,而是希望用直觀和易懂的方式進行解釋。

,可對角化矩陣是:如果乙個方塊矩陣 a 相似於對角矩陣,也就是說,如果存在乙個可逆矩陣 p 使得 p

−1ap 是對角矩陣,則它就被稱為可對角化的。對角化是找到可對角化矩陣或對映的相應對角矩陣的過程。

線性代數中的正交化指的是:從內積空間(包括常見的歐幾里得空間)中的一組線性無關向量v

1,...,v

k出發,得到同乙個子空間上兩兩正交的向量組u

1,...,u

k。如果還要求正交化後的向量都是單位向量,那麼稱為標準正交化。一般在數學分析中採用格拉姆-施密特正交化作

正交化的計算:

對於乙個n階方陣進行特徵分解,然後正交化,就會產生該空間的n個標準正交基,然後矩陣投影到這n個基上,n個特徵向量就是n個標準正交基。而特徵值得模,則代表矩陣在每個基上的投影長度。特徵值越大,說明矩陣在對應的特徵向量上的方差越大,資訊量越多。

最優化中,意思是對r的二次型,自變數在這個方向的上變化的時候對函式的影響最大,也就是該方向上的方向導數最大。

在資料探勘和機器學習中,最大的特徵值對應的特徵向量方向上包含最多的資訊量,如果幾個特徵值很小,說明這幾個方向資訊量很小,可以用來降維,也就是刪除小特徵值對應方向的資料,只保留大特徵值方向對應的資料,這樣做以後,資料量減小,但資訊量變化不大。

特徵向量相互正交(相當於歐式幾何座標基軸)

資料維度與特徵個數相對應。

特徵值和特徵向量理解

1 線性變換 首先來個線性方程組 換個表達方式,所以可以寫成如下格式,現在有矩陣a,列向量x和y,向量x通過矩陣a線性變換到y,如下圖 2 接下來,我們說明上述公式的幾何意義。也就是 這就一目了然了,x 經過線性變換後變為y,涉及到了兩個變化,伸縮和旋轉,也就是x先作伸縮變換,然後旋轉到y的位置。矩...

特徵值 特徵向量

最近在學lsc,想蒐集一些特徵值和特徵向量的知識 1 特徵值和特徵向量 矩陣的基 定義 乙個m n的矩陣可以看成是n個列向量組成,這n個列向量的線性組合構成乙個列空間,而通常這n個列向量不是線性無關的,那麼求出這n個列向量中不相關的r個,可以稱這r列為矩陣列空間的基。基上投影的計算 要準確描述向量,...

對特徵值 特徵向量的理解

特徵向量確實有很明確的幾何意義,矩陣 既然討論特徵向量的問題,當然是方陣,這裡不討論廣義特徵向量的概念,就是一般的特徵向量 乘以乙個向量的結果仍是同維數的乙個向量,因此,矩陣乘法對應了乙個變換,把乙個向量變成同維數的另乙個向量,那麼變換的效果是什麼呢?這當然與方陣的構造有密切關係,比如可以取適當的二...