歐氏距離和余弦相似度

2021-09-01 23:19:09 字數 1563 閱讀 7964

兩者相同的地方,就是在機器學習中都可以用來計算相似度,但是兩者的含義有很大差別,以我的理解就是:

前者是看成座標系中兩個點,來計算兩點之間的距離;後者是看成座標系中兩個向量,來計算兩向量之間的夾角。前者因為是點,所以一般指位置上的差別,即距離;後者因為是向量,所以一般指方向上的差別,即所成夾角。

如下圖所示:

資料項a和b在座標圖中當做點時,兩者相似度為距離dist(a,b),可通過歐氏距離(也叫歐幾里得距離)公式計算:

當做向量時,兩者相似度為cosθ,可通過余弦公式計算:

假設||a||、||b||表示向量a、b的2範數,例如向量[1,2,3]的2範數為:

√(1²+2²+3²) = √14

numpy中提供了範數的計算工具:linalg.norm()

所以計算cosθ起來非常方便(假定a、b均為列向量):

num = float(a.t * b) 

#若為行向量則 a * b.t

denom = linalg.norm(a) * linalg.norm(b)  

cos = num / denom #余弦值

sim = 0.5

+ 0.5

* cos 

#歸一化

因為有了linalg.norm(),歐氏距離公式實現起來更為方便:

dist = linalg.norm(a - b)  

sim = 1.0

/ (1.0

+ dist) 

#歸一化

關於歸一化:

因為余弦值的範圍是 [-1,+1] ,相似度計算時一般需要把值歸一化到 [0,1],一般通過如下方式:

sim = 0.5 + 0.5 * cosθ

若在歐氏距離公式中,取值範圍會很大,一般通過如下方式歸一化:

sim = 1 / (1 + dist(x,y))

說完了原理,簡單扯下實際意義,舉個栗子吧:

例如某t恤從100塊降到了50塊(a(100,50)),某西裝從1000塊降到了500塊(b(1000,500))

那麼t恤和西裝都是降價了50%,兩者的**變動趨勢一致,余弦相似度為最大值,即兩者有很高的變化趨勢相似度

但是從商品**本身的角度來說,兩者相差了好幾百塊的差距,歐氏距離較大,即兩者有較低的**相似度

歐氏距離和余弦相似度

兩者相同的地方,就是在機器學習中都可以用來計算相似度,但是兩者的含義有很大差別,以我的理解就是 前者是看成座標系中兩個點,來計算兩點之間的距離 後者是看成座標系中兩個向量,來計算兩向量之間的夾角。前者因為是點,所以一般指位置上的差別,即距離 後者因為是向量,所以一般指方向上的差別,即所成夾角。如下圖...

歐氏距離和余弦相似度

參考自 歐氏距離與余弦相似度 歐氏距離和余弦相似度 在資料分析和資料探勘的過程中,我們經常需要知道個體間差異的大小,進而評價個體的相似性和類別。最常見的是資料分析中的相關分析,資料探勘中的分類和聚類演算法,如k最近鄰 knn 和k均值 k means 來衡量兩者的差異的方法,主要分為距離度量和相似度...

相似度計算 歐氏距離 漢明距離 余弦相似度

計算影象間的相似性可以使用歐氏距離 余弦相似度 作為度量,前者強調點的思想,後者注重線的思想。歐氏距離 歐式距離 euclidean distance即n維空間中兩個點之間的實際距離。已知兩個點a a1,a2,an b b1,b2,b n a a1,a 2,an b b1,b 2,bn 則ab間的距...