海量資料處理

2021-06-16 07:48:38 字數 601 閱讀 6922

給定a、b兩個檔案,各存放50億個url,每個url各占用64位元組,記憶體限制是4g,如何找出a、b檔案共同的url?

答案:

可以估計每個檔案的大小為5g*64=300g,遠大於4g。所以不可能將其完全載入到記憶體中處理。考慮採取分而治之的方法。

遍歷檔案a,對每個url求取hash(url)%1000,然後根據所得值將url分別儲存到1000個小檔案(設為 a0,a1,...a999)當中。這樣每個小檔案的大小約為300m。遍歷檔案b,採取和a相同的方法將url分別儲存到1000個小檔案 (b0,b1....b999)中。這樣處理後,所有可能相同的url都在對應的小檔案(a0 vs b0, a1 vs b1....a999 vs b999)當中,不對應的小檔案(比如a0 vs b99)不可能有相同的url。然後我們只要求出1000對小檔案中相同的url即可。

比如對於a0 vs b0,我們可以遍歷a0,將其中的url儲存到hash_map當中。然後遍歷b0,如果url在hash_map中,則說明此url在a和b中同時存在,儲存到檔案中即可。

如果分成的小檔案不均勻,導致有些小檔案太大(比如大於2g),可以考慮將這些太大的小檔案再按類似的方法分成小小檔案即可。

海量資料處理

1 有一千萬條簡訊,有重複,以文字檔案的形式儲存,一行一條,有 重複。請用5分鐘時間,找出重複出現最多的前10條。方法1 可以用雜湊表的方法對1千萬條分成若干組進行邊掃瞄邊建雜湊表。第一次掃瞄,取首位元組,尾位元組,中間隨便兩位元組作為hash code,插入到hash table中。並記錄其位址和...

海量資料處理

分而治之 hash對映 hash統計 堆 快速 歸併排序 300萬個查詢字串中統計最熱門的10個查詢。針對此類典型的top k問題,採取的對策往往是 hashmap 堆。hash統計 先對這批海量資料預處理。具體方法是 維護乙個key為query字串,value為該query出現次數的hashtab...

海量資料處理

演算法思想 分而治之 hash 1.ip 位址最多有 2 32 4g種取值情況,所以不能完全載入到記憶體中處理 2.可以考慮採用 分而治之 的思想,按照 ip位址的hash ip 1024 值,把海量 ip 日誌分別儲存到 1024 個小檔案中。這樣,每個小檔案最多包含 4mb 個 ip 位址 3....