常見的特徵降維方法

2021-09-27 03:13:54 字數 439 閱讀 3933

主成成分分析(pca)

線性判別分析(linear discriminant analysis,lda)

對映後類內方差最小,類間方差最大

區域性線性嵌入(locally linear embedding,lle)

isomap求全域性最優解,lle演算法計算量較小

多維縮放(multidimensional scaling,mds)

非線性降維

在降維的同時盡量保持歐式距離不變

區域性保留投影(locality preserving projections,lpp)

屬於流形學習

線性降維

降維的同時保留區域性近鄰節點的資訊

拉普拉斯特徵對映(laplacian eigenmaps,le)

屬於流形學習

非線性的降維方法

降維的同時保留區域性近鄰節點的資訊

特徵向量降維常見的幾種方法

這裡就簡單描述下。通常我們會使用特徵訓練模型或特徵矩陣求相似度。高維的特徵帶來的計算成本非常大,甚至完不成。同時一般高維的特徵都比較稀疏,直接使用高維的特徵訓練需要樣本量很大,難以擬合,模型效果不好。通常我們訓練模型時,會人為挑選特徵,控制每類特徵維度範圍,比如年齡我們使用one hot的方式表示,...

特徵工程(5) 降維

當特徵選擇完成後,可以直接訓練模型了,但是可能由於特徵矩陣過大,導致計算量大,訓練時間長的問題,因此降低特徵矩陣維度也是必不可少的。常見的降維方法除了上篇提到的基於l1懲罰項的模型以外,另外還有主成分分析法 pca 和線性判別分析 lda 線性判別分析本身也是乙個分類模型。pca和lda有很多的相似...

特徵預處理 降維

降維 降維是指在某些限定條件下,較低特徵的個數,得到一組 不相關 的主變數的過程 1 特徵選擇 1.1 方法 嵌入式embedded 模組 sklearn.feature selection 1.2 方差選擇 sklearn.feature selection.variancethreshold t...