應用數學與機器學習基礎

2021-09-25 02:27:23 字數 790 閱讀 6988

線性代數的知識

1、標量:令x屬於 r 表示一條線的斜率,小寫斜體表示,會表明他屬於是哪種型別

2、向量:

s =   指定x1,x3 和x6, 表示為xs, ,x-s 表示x 中除x1,x3,x6 外所有元素構成的向量。

3、矩陣:

矩陣值表示式的索引:f(a)i;j 表示函式f 作用在a 上輸出的矩陣的第i 行第j 列元素。

4、張量:,乙個陣列中的元素分布在若干維座標的規則網格中,張量a 中座標為(i; j; k) 的元素記作ai;j;k。

5、轉置:

6、廣播:我們允許矩陣和向量相加,產生另乙個矩陣:c = a + b,其中ci;j = ai;j + bj。換言之,向量b 和矩陣a 的每一行相加。這個簡寫方法使我們無需在加法操作前定義乙個將向量b 複製到每一行而生成的矩陣。這種隱式地複製向量b 到很多位置的方式,被稱為廣播,實際上廣播和矩陣的加法的條件就是相違背的,這裡就理解為不能將向量視為單列的矩陣了。

7、矩陣相加:大小必須一致為mxn

8、矩陣的乘法,c = a×b a矩陣的列數必須和b矩陣的行數相等

矩陣相乘的性質:

矩陣的乘積不滿**換律

9、向量的點積, 兩個向量的點積(dot product)滿**換律

10、矩陣乘積的轉置有著簡單的形式

11、

深度學習 應用數學與機器學習基礎 1

如果你很熟悉線性代數,那麼你可以跳過本節 1 標量 向量 矩陣和張量 2 矩陣和向量相乘 矩陣乘法是矩陣運算中最重要的操作之一。兩個矩陣相乘是第三個矩陣。c aba的列數必須和b的行數相等。兩個矩陣中對應元素相乘被稱為元素對應乘積或者badamard乘積。記為 a b 兩個相同維數的向量x和y的點積...

深度學習 應用數學與機器學習基礎 3

矩陣分解除了分解成特徵值和特徵向量。還有一種分解矩陣的方法,被稱為奇異值分解 singular value decomposition svd 將矩陣分解為奇異向量和奇異值。通過奇異值分解,我們會得到一些與特徵分解相同型別的資訊。每個實數矩陣都有乙個奇異值分解,但不一定有特徵分解。回想一下,我們使用...

機器學習概念與數學基礎

一.什麼是機器學習 概率模型 神經網路 都是為了擬合輸入與輸出之間的關係 all models are wrong,but some are useful.george e.p.box 二.機器學習的應用 人工智慧 智慧型系統 計算神經學 機器學習等都是人工智慧的分支 模式識別 訊號 影象 聲音等找...