吳恩達《機器學習》課程總結(3)線性代數回顧

2021-09-20 08:22:05 字數 1028 閱讀 2763

幾行幾列即為矩陣。aij表示第i行第j列。

只有一行或者一列的稱為向量,向量是一種特殊矩陣。一般向量指的是列向量。

加法:元素對應相加。

標量乘法:標量和矩陣每乙個元素相乘。

要求:第乙個矩陣的列數等於第二個矩陣的行數,如m x n矩陣與nx 1矩陣相乘,結果為第乙個矩陣的行數乘以第二個矩陣的列數。

結果cij是第乙個矩陣第i行和第二個矩陣第j列對應元素相乘求和的值。

不滿**換律:axb != b x a。

滿足結合律:(a x b) x c=a x (b x c)。

單位矩陣i:是對角線為1,其他都為零的方陣。任何矩陣於單位矩陣相乘,矩陣保持不變。

如果矩陣a的逆矩陣存在,則aa-1=a-1a=i。

如果a的轉置矩陣是b,則a矩陣第i行第j列元素與b矩陣第j行第i列元素相等。記at=b。

轉置矩陣的一些性質:

(a±b)t=(at±bt)。

(axb)t=btx at。

(at)t=a。

(ka)t=kat。

吳恩達《機器學習》課程總結 19 總結

線性回歸 下面第三行x0 i 其實是1,可以去掉 邏輯回歸 神經網路 寫出前向傳播即可,反向框架會自動計算 pca訓練誤差減去人類最高水平為偏差 欠擬合 交叉驗證集誤差減訓練誤差為方差 過擬合 正則化解決方差問題,不對 0正則化 全過程觀測偏差與方差,所以更全面。找到哪種原因造成誤差最大,最該花時間...

吳恩達《機器學習》課程總結(19)總結

線性回歸 下面第三行x0 i 其實是1,可以去掉 邏輯回歸 神經網路 寫出前向傳播即可,反向框架會自動計算 pca訓練誤差減去人類最高水平為偏差 欠擬合 交叉驗證集誤差減訓練誤差為方差 過擬合 正則化解決方差問題,不對 0正則化 全過程觀測偏差與方差,所以更全面。找到哪種原因造成誤差最大,最該花時間...

吳恩達《機器學習》課程總結(4)多變數線性回歸

上圖中列數即為特徵的個數,行數是樣本數。函式假設如下 其中x0 1。和單變數的損失函式相同 其中,求導迭代如下 特徵之間的尺度變化相差很大 如乙個是0 1000,乙個是0 5 梯度演算法需要非常多次的迭代才能收斂,如下圖所示 方法 將各個特徵縮放至大致相同的尺度,最簡單的方法就是特徵減去均值除以方差...