機器學習演算法的PCA思想

2021-10-06 11:05:49 字數 385 閱讀 3442

pca顧名思義,就是找出資料裡最主要的方面,用資料裡最主要的方面來代替原始資料。具體的,假如我們的資料集是n維的,共有m個資料(x(1),x(2),...,x(m))。我們希望將這m個資料的維度從n維降到n'維,希望這m個n'維的資料集盡可能的代表原始資料集。我們知道資料從n維降到n'維肯定會有損失,但是我們希望損失盡可能的小。

pca的演算法步驟:

設有m條n維資料。

1)將原始資料按列組成n行m列矩陣x

2)將x的每一行(代表乙個屬性字段)進行零均值化,即減去這一行的均值

3)求出協方差矩陣

4)求出協方差矩陣的特徵值及對應的特徵向量

5)將特徵向量按對應特徵值大小從上到下按行排列成矩陣,取前k行組成矩陣p

6)即為降維到k維後的資料

機器學習 PCA

介紹 pca是一種無監督學習的降維技術 思想1.投影後樣本越分散,保留的資訊越多 2.pca的主要思想是將n維特徵對映到k維上,這k維是全新的正交特徵也被稱為主成分,是在原有n維特徵的基礎上重新構造出來的k維特徵 做法1.將所有的樣本點向直線w投影 2.目標函式 讓投影後樣本的方差極大 第一步 x減...

機器學習 LDA與PCA演算法

linear discriminant analysis 用途 資料預處理中的降維,分類任務 歷史 ronald a.fisher在1936年提出了線性判別方法 線性判別分析 lda 目標 lda關心的是能夠最大化類間區分度的座標軸成分 將特徵空間 資料集中的多維樣本 投影到乙個維度更小的 k 維子...

機器學習之PCA演算法學習

pca全稱principal component analysis,即主成分分析,是一種常用的資料降維方法。它可以通過線性變換將原始資料變換為一組各維度線性無關的表示,以此來提取資料的主要線性分量。其中,z為低維矩陣,x為高維矩陣,w為兩者之間的對映關係。假如我們有二維資料 原始資料有兩個特徵軸 特...