海量資料處理

2021-08-27 21:20:30 字數 424 閱讀 4271

1.top k 問題

利用快排,冒泡法排序,將最大的k個值沉底,演算法複雜度為o(kn);

利用堆,小根堆找最大的k個數,大根堆找最小的k個數(建堆o(klogk) 比較+排序o( (n-k)*logk) );

2.中位數問題

利用兩個堆,初始選中乙個數m作為基準,比m大的加入小根堆,比m小的加入大根堆,當兩個堆的節點數差值為2時,將多的一邊堆頂放入少的一邊,多的新堆頂為m;

利用桶排序,將資料放入2^n個桶,統計每個桶的數目,找出中位數所在的桶,再進行排序;

利用基數排序,分別統計最高位為(1,0)的個數n1,n0,在資料量多的一組中重複操作;

3.無序資料,查詢值

利用位圖方法,以最高位為基準劃分為(1,0)兩個部分,再以次高位為基準劃分為(1,0)兩個部分,依次劃分,最終可以找到,演算法複雜度為o(logn);

海量資料處理

1 有一千萬條簡訊,有重複,以文字檔案的形式儲存,一行一條,有 重複。請用5分鐘時間,找出重複出現最多的前10條。方法1 可以用雜湊表的方法對1千萬條分成若干組進行邊掃瞄邊建雜湊表。第一次掃瞄,取首位元組,尾位元組,中間隨便兩位元組作為hash code,插入到hash table中。並記錄其位址和...

海量資料處理

給定a b兩個檔案,各存放50億個url,每個url各占用64位元組,記憶體限制是4g,如何找出a b檔案共同的url?答案 可以估計每個檔案的大小為5g 64 300g,遠大於4g。所以不可能將其完全載入到記憶體中處理。考慮採取分而治之的方法。遍歷檔案a,對每個url求取hash url 1000...

海量資料處理

分而治之 hash對映 hash統計 堆 快速 歸併排序 300萬個查詢字串中統計最熱門的10個查詢。針對此類典型的top k問題,採取的對策往往是 hashmap 堆。hash統計 先對這批海量資料預處理。具體方法是 維護乙個key為query字串,value為該query出現次數的hashtab...