使用SimHash進行海量文字去重

2022-07-25 20:00:17 字數 3398 閱讀 6824

閱讀目錄

在之前的兩篇博文分別介紹了常用的hash方法([data structure & algorithm] hash那點事兒)以及區域性敏感hash演算法([algorithm] 區域性敏感雜湊演算法(locality sensitive hashing)),本文介紹的simhash是一種區域性敏感hash,它也是google公司進行海量網頁去重使用的主要演算法。

回到頂部

傳統的hash演算法只負責將原始內容盡量均勻隨機地對映為乙個簽名值,原理上僅相當於偽隨機數產生演算法。傳統的hash演算法產生的兩個簽名,如果原始內容在一定概率下是相等的;如果不相等,除了說明原始內容不相等外,不再提供任何資訊,因為即使原始內容只相差乙個位元組,所產生的簽名也很可能差別很大。所以傳統的hash是無法在簽名的維度上來衡量原內容的相似度,而simhash本身屬於一種區域性敏感雜湊演算法,它產生的hash簽名在一定程度上可以表徵原內容的相似度。

我們主要解決的是文字相似度計算,要比較的是兩個文章是否相識,當然我們降維生成了hash簽名也是用於這個目的。看到這裡估計大家就明白了,我們使用的simhash就算把文章中的字串變成 01 串也還是可以用於計算相似度的,而傳統的hash卻不行。我們可以來做個測試,兩個相差只有乙個字元的文字串,「你媽媽喊你回家吃飯哦,回家羅回家羅」 和 「你媽媽叫你回家吃飯啦,回家羅回家羅」。

通過simhash計算結果為:

1000010010101101111111100000101011010001001111100001001011001011

1000010010101101011111100000101011010001001111100001101010001011

通過傳統hash計算為:

大家可以看得出來,相似的文字只有部分 01 串變化了,而普通的hash卻不能做到,這個就是區域性敏感雜湊的魅力。

回到頂部

假設我們有海量的文字資料,我們需要根據文字內容將它們進行去重。對於文字去重而言,目前有很多nlp相關的演算法可以在很高精度上來解決,但是我們現在處理的是大資料維度上的文字去重,這就對演算法的效率有著很高的要求。而區域性敏感hash演算法可以將原始的文字內容對映為數字(hash簽名),而且較為相近的文字內容對應的hash簽名也比較相近。simhash演算法是google公司進行海量網頁去重的高效演算法,它通過將原始的文字對映為64位的二進位制數字串,然後通過比較二進位制數字串的差異進而來表示原始文字內容的差異。

回到頂部

(注:具體的事例摘自lanceyan的部落格《海量資料相似度計算之simhash和海明距離》)

整個過程的流程圖為:

回到頂部

我們把庫里的文字都轉換為simhash簽名,並轉換為long型別儲存,空間大大減少。現在我們雖然解決了空間,但是如何計算兩個simhash的相似度呢?難道是比較兩個simhash的01有多少個不同嗎?對的,其實也就是這樣,我們通過海明距離(hamming distance)就可以計算出兩個simhash到底相似不相似。兩個simhash對應二進位制(01串)取值不同的數量稱為這兩個simhash的海明距離。舉例如下:1010100110從第一位開始依次有第一位、第

四、第五位不同,則海明距離為3。對於二進位制字串的a和b,海明距離為等於在a xor b運算結果中1的個數(普遍演算法)。

回到頂部

經過simhash對映以後,我們得到了每個文字內容對應的simhash簽名,而且也確定了利用漢明距離來進行相似度的衡量。那剩下的工作就是兩兩計算我們得到的simhash簽名的漢明距離了,這在理論上是完全沒問題的,但是考慮到我們的資料是海量的這一特點,我們是否應該考慮使用一些更具效率的儲存呢?其實simhash演算法輸出的simhash簽名可以為我們很好建立索引,從而大大減少索引的時間,那到底怎麼實現呢?

這時候大家有沒有想到hashmap呢,一種理論上具有o(1)複雜度的查詢資料結構。我們要查詢乙個key值時,通過傳入乙個key就可以很快的返回乙個value,這個號稱查詢速度最快的資料結構是如何實現的呢?看下hashmap的內部結構:

如果我們需要得到key對應的value,需要經過這些計算,傳入key,計算key的hashcode,得到7的位置;發現7位置對應的value還有好幾個,就通過鍊錶查詢,直到找到v72。其實通過這麼分析,如果我們的hashcode設定的不夠好,hashmap的效率也不見得高。借鑑這個演算法,來設計我們的simhash查詢。通過順序查詢肯定是不行的,能否像hashmap一樣先通過鍵值對的方式減少順序比較的次數。看下圖:

儲存

1、將乙個64位的simhash簽名拆分成4個16位的二進位製碼。(圖上紅色的16位)

2、分別拿著4個16位二進位製碼查詢當前對應位置上是否有元素。(放大後的16位)

3、對應位置沒有元素,直接追加到鍊錶上;對應位置有則直接追加到鍊錶尾端。(圖上的 s1 — sn)

查詢

1、將需要比較的simhash簽名拆分成4個16位的二進位製碼。

2、分別拿著4個16位二進位製碼每乙個去查詢simhash集合對應位置上是否有元素。

3、如果有元素,則把鍊錶拿出來順序查詢比較,直到simhash小於一定大小的值,整個過程完成。

原理

借鑑hashmap演算法找出可以hash的key值,因為我們使用的simhash是區域性敏感雜湊,這個演算法的特點是只要相似的字串只有個別的位數是有差別變化。那這樣我們可以推斷兩個相似的文字,至少有16位的simhash是一樣的。具體選擇16位、8位、4位,大家根據自己的資料測試選擇,雖然比較的位數越小越精準,但是空間會變大。分為4個16位段的儲存空間是單獨simhash儲存空間的4倍。之前算出5000w資料是 382 mb,擴大4倍1.5g左右,還可以接受

回到頂部

1. 當文字內容較長時,使用simhash準確率很高,simhash處理短文本內容準確率往往不能得到保證;

2. 文字內容中每個term對應的權重如何確定要根據實際的專案需求,一般是可以使用idf權重來進行計算。

回到頂部

1. 嚴瀾的部落格《海量資料相似度計算之simhash短文本查詢》

2. 《similarity estimation techniques from rounding algorithms》

使用SimHash進行海量文字去重

閱讀目錄 在之前的兩篇博文分別介紹了常用的hash方法 data structure algorithm hash那點事兒 以及區域性敏感hash演算法 algorithm 區域性敏感雜湊演算法 locality sensitive hashing 本文介紹的simhash是一種區域性敏感hash,...

使用SimHash進行海量文字去重

在之前的兩篇博文分別介紹了常用的hash方法 data structure algorithm hash那點事兒 以及區域性敏感hash演算法 algorithm 區域性敏感雜湊演算法 locality sensitive hashing 本文介紹的simhash是一種區域性敏感hash,它也是go...

simhash海量文字去重的工程化

simhash演算法是google發明的,專門用於海量文字去重的需求,所以在這裡記錄一下simhash工程化落地問題。下面我說的都是工程化落地步驟,不僅僅是理論。被抄襲的文章一般不改,或者少量改動就發表了,所以判重並不是等於的關係,而是相似判斷,這個判別的演算法就是simhash。給定一篇文章內容,...