《深度學習》第二 五章學習筆記

2021-08-09 20:10:53 字數 1193 閱讀 1526

對角矩陣,對稱矩陣,正交矩陣(矩陣的轉置與矩陣的 乘積為單位矩陣)

特徵分解:ax=

λ x 所有特徵值都是正數的矩陣稱為正定矩陣,所有特徵值都是非負數的矩陣稱為半正定矩陣,同理:負定,半負定(任意是對程集鎮都有特徵分解)

奇異值分解(svd):將矩陣分解為奇異向量和奇異值(重點:通過奇異值分解能夠得到與特徵分解相同的資訊。但是奇異值分解應用更加廣泛,因為每乙個實數矩陣都有乙個奇異值分解,但不一定有特徵分解)

a=udv

t ,其中a是乙個m*n的矩陣,u是乙個m*m的矩陣,d是乙個m*n 的矩陣,v是乙個n*n的矩陣,且u、v都是正交矩陣,而d為對角矩陣

矩陣d對角線上的元素稱為矩陣a的奇異值

moore-penrose偽逆:對於非方矩陣來說,求逆矩陣沒意義

跡運算:對角線元素之和

行列式:等於矩陣特徵值的乘積,行列式的絕對值可以用來衡量矩陣與矩陣乘法後空間擴大或者縮小了多少,如果行列式為0,那麼空間至少沿著某一維完全收縮了。

主成分分析(pca):pca(principal component analysis)不僅僅是對高維資料進行降維,更重要的是經過降維去除了雜訊,發現了資料中的模式。

pca把原先的n個特徵用數目更少的m個特徵取代,新特徵是舊特徵的線性組合,這些線性組合最大化樣本方差,盡量使新的m個特徵互不相關。從舊特徵到新特徵的對映捕獲資料中的固有變異性。

總結來說,pca的基本步驟如下:

(1)特徵中心化。即每一維的資料都減去該維的均值。這裡的「維」指的就是乙個特徵(或屬性),變換之後每一維的均值都變成了0。每一列減去該列均值後,得到矩陣b。

(2)計算b的協方差矩陣c:

(3)計算協方差矩陣c的特徵值和特徵向量。

(4)選取大的特徵值對應的特徵向量,得到新的資料集。

上溢:超出所能表示的最大正數(進一步計算會導致這些無限值變成非數字

下溢:超出所能表示的最小負數(有一些函式在引數為0而不是乙個很小的正數時會有一些質的不同,比如我們通常要避免被0除或者避免取0的對數,此時就要避免發生下溢)

我們能通過一些手段來避免上溢和下溢的發生(p52有例子)

python深度學習第二章筆記

2.1mnist例項 coding utf 8 project python深度學習 file name 2.1mnist author win10 time 2020 4 11 11 22 product name pycharm from keras.datasets import mnist ...

第二章學習筆記

在c 中,陣列下標從0開始,而不是1.c 不支援陣列的抽象,也不支援對整個陣列的操作。在c 中,物件可以靜態分配 即編譯器在處理程式源 時分配,也可以動態分配 即程式執行時,用執行時刻庫函式來分配。靜態與動態記憶體分配的兩個主要區別是 1 靜態物件是有名字的變數,可以直接對你進行操作。而動態物件是沒...

第二章學習筆記

ansi c 有翻譯和執行兩種環境,且不必在一台機器上,例如交叉編譯器 cross compiler 作業系統也是如此 freestanding environment 翻譯 將源 轉換為可執行機器指令 執行 實際執行 翻譯經過以下階段 形成的目標檔案字尾可能在不同系統下不同,如 o obj cc ...