機器學習中的範數

2021-08-19 13:55:27 字數 474 閱讀 8650

lo範數是向量中非零元素的數目
如果採用l0範數來規劃化乙個引數矩陣的,就是為了讓矩陣稀疏,希望大部分權值都為0。但是,這個術語在數學意義上是不對的,非零元素的數目不是範數,因為對向量縮放

α 倍不會改變該向量的非零數目。

l1範數是向量中各個元素的絕對值的和,也叫做『稀疏規則運算元』
l1範數能夠實現權值稀疏,任何的規範化的運算元,如果他在wi

=0不可微,並且可以分解為乙個求和的形式,那麼這個規劃化運算元就可以實現稀疏。l1通常作為l0範數的替代範數。

l2範數是指向量中各元素的的平方和然後再求平方根。有兩個美稱,有人把它的回歸叫『嶺回歸』,也有人叫它『權值衰減』

那為什麼在機器學習中,l2用法很廣泛呢?

機器學習中的範數問題

一 l0範數與l1範數 範數相當於衡量乙個矩陣的大小 l0範數是指向量中非0的元素的個數。如果我們用l0範數來規則化乙個引數矩陣w的話,就是希望w的大部分元素都是0。這太直觀了,太露骨了吧,換句話說,讓引數w是稀疏的。ok,看到了 稀疏 二字,大家都應該從當下風風火火的 壓縮感知 和 稀疏編碼 中醒...

機器學習中的範數規則化

機器學習中的範數規則化之 一 l0 l1與l2範數 l1範數是指向量中各個元素絕對值之和,也有個美稱叫 稀疏規則運算元 lasso regularization 現在我們來分析下這個價值乙個億的問題 為什麼l1範數會使權值稀疏?有人可能會這樣給你回答 它是l0範數的最優凸近似 實際上,還存在乙個更美...

機器學習中的範數規則化

在深度學習中,監督類學習問題其實就是在規則化引數同時最小化誤差。最小化誤差目的是讓模型擬合訓練資料,而規則化引數的目的是防止模型過分擬合訓練資料。引數太多,會導致模型複雜度上公升,容易過擬合,也就是訓練誤差小,測試誤差大。因此,我們需要保證模型足夠簡單,並在此基礎上訓練誤差小,這樣訓練得到的引數才能...