線性代數基礎

2022-06-22 01:12:07 字數 734 閱讀 7313

兩兩正交且模為1

\[a \cdot b = \left| a \right|\left| b \right|\cos \left( a \right)\]

設向量b的模為1,則a與b的內積值等於a向b所在直線投影的向量長度。要準確描述向量,首先要確定一組基,然後給出在基所在的各個直線上的投影值,就可以了。

\[a \times b = \left\| a \right\|\left\| b \right\|\sin \theta n\]

n是同時垂直於a,b向量的單位向量。

可逆矩陣:$ab = ba = e$

正交矩陣:$a = e$

a相似於b($a \sim b$):$}ap = b$

,p是可逆方陣。相似矩陣有相同的特徵多項式,相同的特徵值。

$ax = \lambda x$,$x$是非零列向量,a是n階方陣。

(1)$\begin

\cdots = \left| a \right|\\

+ +  \cdots = } + } +  \cdots  + }

\end$

(2)實對稱矩陣的任一特徵值都是實數

(3)不同特徵值對應的特徵向量線性無關

$tr\left( a \right) = } + } +  \cdots  + }$,$a$是n階方陣。

(1)跡是所有對角元的和

(2)跡是所有特徵值的和

(3)某些時候也利用tr(ab)=tr(ba)來求跡

線性代數基礎

向量是由n個數組成的n行1列或1行n列的有序陣列 向量點乘 內積,數量積 運算結果是乙個標量,可以計算兩個向量間的夾角以及a向量在b向量方向上的投影,點積的意義是測量兩個向量同向的程度。向量叉乘 外積,向量積 運算結果是乙個向量,並與這兩個向量組成的平面垂直 向量的線性組合 先數乘後疊加 a1v1 ...

數學基礎 線性代數

1 矩陣正定性的判斷,hessian 矩陣正定性在梯度下降中的應用 若矩陣所有特徵值均不小於0,則判定為半正定,若矩陣所有特徵值均大於0,則判定為正定,在判斷優化演算法的可行性時hessian 矩陣的正定性起了很大的作用,若hessian 正定,則函式的二階偏導恆大於0,函式的變化率處於遞增狀態,在...

線性代數 線性代數的本質

線性代數在機器學習的領域中扮演者十分重要的角色,所以這裡岔開先整理一些線性代數的基本概念和計算方法。這裡是3blue1brown的線性代數課程的截圖和筆記。作為快速複習的網路筆記。本課程的特點 通過影象展現線性代數計算在幾何圖形上意義。這樣能更好的理解線性代數為什麼叫做線性代數。線性代數為什麼採用這...