《深度學習》學習筆記(一) 線性代數基礎

2021-09-24 02:32:17 字數 1945 閱讀 9075

標量:乙個標量就是乙個單獨的數,它不同於線性代數中研究的其他 大部分物件(通常是多個數的陣列)。

向量:乙個向量是一列數。這些數是有序排列的。通過次序中的索 引,我們可以確定每個單獨的數。

x =[

x1x2

..xn

]x=\begin x_1 \\ x_2 \\.\\. \\ x_n\end

x=⎣⎢⎢⎢

⎢⎡​x

1​x2

​..x

n​​⎦

⎥⎥⎥⎥

⎤​矩陣:矩陣是乙個二維陣列,其中的每乙個元素被兩個索引(而非 乙個)所確定。

[ a1

,1a1

,2a2

,1a2

,2

]\begin a_&a_\\a_&a_\end

[a1,1​

a2,1

​​a1

,2​a

2,2​

​]張量:在某些情況下,我們會討論座標超過兩維的陣列。一般地,一 個陣列中的元素分布在若干維座標的規則網格中,我們稱之為張量。

比如張量 a

aa 中的座標為 (i,

j,k)

(i,j,k)

(i,j,k

) 的元素記作 ai,

j,ka_

ai,j,k

​。轉置:是矩陣的重要操作之一,將矩陣的行列互換得到的新矩陣稱為轉置矩陣。

( at

)i,j

=aj,

i(a^t)_=a_

(at)i,

j​=a

j,i​

兩個矩陣 a

aa 和 b

bb 的矩陣乘積,其中矩陣 a

aa 的列數必須和矩陣 b

bb 的行數相等。c=a

bc=ab

c=ab

乘法操作為ci,

j=∑k

ai,k

bk,j

c_=\sum\limits_ a_b_

ci,j​=

k∑​a

i,k​

bk,j

​注意,兩個矩陣的標準乘積不是指兩個矩陣中對應元素的乘積。不過那樣的矩陣乘積確實存在,稱為元素對應乘積(element-wise product)或者hadamard 乘積(hadamard product),

記做a ⨀b

a\bigodot b

a⨀b單位矩陣:任意向量和單位矩陣相乘都不會改變。比如i

3i_3

i3​:

[ 10

0010

001]

\begin 1&0&0\\0&1&0\\0&0&1\end

⎣⎡​100

​010

​001

​⎦⎤​

逆矩陣:a−1

a=in

a^a=i_n

a−1a=i

n​若存在式子 ax=

bax=b

ax=b

,我們可以利用逆矩陣這個工具求得x=a

−1

bx=a^b

x=a−1b

當然,前提是 a−1

a^a−

1 存在。

線性組合:ax=

∑ixi

a:,i

ax=\sum\limits_x_ia_

ax=i∑​

xi​a

:,i​

如果一組向量中 的任意乙個向量都不能表示成其他向量的線性組合,那麼這組向量稱為線性無關 (linearly independent)

學習筆記 線性代數基礎

注 下文若不宣告,統一為三維向量。定義 一般地,向量為一條從原點出發的一條有向線段。通過終止點的座標來表示 beginx y z end 性質 加法 vec vec beginx 1 y 1 z 1 end beginx 2 y 2 z 2 end begin x 1 x 2 y 1 y 2 z 1...

深度學習數學基礎之線性代數

深度學習中的基本資料結構,基本上都是用向量或矩陣表示的,因此 深度學習的基礎學科之一 就是線性代數。深度學習中的線性代數知識主要包括以下部分 1 標量 向量 矩陣和張量 這4個變數很好理解 分別表示 乙個數 一維空間 一條線 二維 乙個平面 多於二維 立體或超立體等 2 矩陣的乘法和內積 這個在深度...

筆記 深度學習 Chapter2 線性代數

在機器學習中,通常使用範數 no rmn or m 來衡量向量的大小.lp norm l pn or m的公式為 x p i xi p 1 p x p i xi p 1 p 直觀地看,範數是向量x x 到原點的距離 p 1 p 1時,稱為曼哈頓距離,p 2 p 2時,稱為歐幾里得距離。嚴格來講,範數...