範數與距離的關係

2021-07-05 10:00:18 字數 1399 閱讀 3289

出處:

向量的範數可以簡單形象的理解為向量的長度,或者向量到零點的距離,或者相應的兩個點之間的距離。

向量的範數定義:向量的範數是乙個函式||x||,滿足非負性||x|| >= 0,齊次性||cx|| = |c| ||x|| ,三角不等式||x+y|| <= ||x|| + ||y||。

常用的向量的範數:

l1範數:  ||x|| 為x向量各個元素絕對值之和。

l2範數:  ||x||為x向量各個元素平方和的1/2次方,l2範數又稱euclidean範數或者frobenius範數

lp範數:  ||x||為x向量各個元素絕對值p次方和的1/p次方

l∞範數:  ||x||為x向量各個元素絕對值最大那個元素的絕對值,如下:

橢球向量範數: ||x||a  = sqrt[t(x)ax], t(x)代表x的轉置。定義矩陣c 為m個模式向量的協方差矩陣, 設c』是其逆矩陣,則mahalanobis距離定義為||x||c』  = sqrt[t(x)c』x], 這是乙個關於c』的橢球向量範數。

歐式距離(對應l2範數):最常見的兩點之間或多點之間的距離表示法,又稱之為歐幾里得度量,它定義於歐幾里得空間中。

n維空間中兩個點x1(x11,x12,…,x1n)與 x2(x21,x22,…,x2n)間的歐氏距離:

也可以用表示成向量運算的形式:

曼哈頓距離:曼哈頓距離對應l1-範數,也就是在歐幾里得空間的固定直角座標系上兩點所形成的線段對軸產生的投影的距離總和。例如在平面上,座標(x1, y1)的點p1與座標(x2, y2)的點p2的曼哈頓距離為:

切比雪夫距離,若二個向量或二個點x1和x2,其座標分別為(x11, x12, x13, ... , x1n)和(x21, x22, x23, ... , x2n),則二者的切比雪夫距離為:d = max(|x1i - x2i|),i從1到n。對應l∞範數。

閔可夫斯基距離(minkowski distance),閔氏距離不是一種距離,而是一組距離的定義。對應lp範數,p為引數。

閔氏距離的定義:

兩個n維變數(或者兩個n維空間點)x1(x11,x12,…,x1n)與 x2(x21,x22,…,x2n)間的閔可夫斯基距離定義為: 

其中p是乙個變引數。

當p=1時,就是曼哈頓距離,

當p=2時,就是歐氏距離,

當p→∞時,就是切比雪夫距離,       

根據變引數的不同,閔氏距離可以表示一類的距離。 

mahalanobis距離:也稱作馬氏距離。在近鄰分類法中,常採用歐式距離和馬氏距離。

範數與距離的關係

標籤 範數 距離歐式距離 曼哈頓距離 切比雪夫距離 2013 11 10 20 00 20015人閱讀收藏 舉報 machine learning 3 作者同類文章x data mining 12 作者同類文章x statistics 1 作者同類文章x 目錄 範數距離 向量的範數可以簡單形象的理解...

機器學習 正則化項L1範數與L2範數的關係

在學習機器學習過程中,我自己糾結了很久的乙個問題是 l1 norm 和 l2 norm 到底是什麼關係,有什麼區別。l1 和 l2 都是深度學習中常用的正則化項 regularizer 描述的是模型的複雜度,它的作用在於模型越複雜,正則化項越大,將它加在損失函式 loss function 後面作為...

求列向量的一範數 內積與範數

內積空間需要滿足三條公理 兩個向量的內積可以度量向量之間的夾角 賦範空間需要滿足三條公理 向量空間具有向量的加法 標量與向量的乘法,內積定義了兩個向量的乘法,可以度量兩個向量之間的夾角,範數能夠對向量的長度 距離 鄰域等進行度量。向量內積定義 稱為典範內積,採用典範內積的有限維向量空間或者稱為n階e...