海量資料 分批分段處理

2021-10-01 10:24:38 字數 867 閱讀 1599

針對海量資料,在mysql執行批量插入時,mysql5.7的客戶端預設是16m,服務端預設是4m,所以需要對資料進行分批分段處理。

listupdatedata = new linkedlist<>();

updatedata.add("1");

updatedata.add("2");

updatedata.add("3");

updatedata.add("4");

updatedata.add("5");

updatedata.add("6");

updatedata.add("7");

updatedata.add("8");

updatedata.add("9");

updatedata.add("10");

//1.分頁資料資訊

int totalsize = updatedata.size(); //總記錄數

int pagesize = 3; //每頁n條

int totalpage = totalsize/pagesize; //共n頁

if (totalsize % pagesize != 0)

}logger.info("迴圈批量更新的次數:{}",totalpage);

//2.分批次插入

for (int pagenum = 1; pagenum < totalpage+1; pagenum++)

迴圈批量更新的次數:4

[1, 2, 3]

[4, 5, 6]

[7, 8, 9]

[10]

海量資料處理

1 有一千萬條簡訊,有重複,以文字檔案的形式儲存,一行一條,有 重複。請用5分鐘時間,找出重複出現最多的前10條。方法1 可以用雜湊表的方法對1千萬條分成若干組進行邊掃瞄邊建雜湊表。第一次掃瞄,取首位元組,尾位元組,中間隨便兩位元組作為hash code,插入到hash table中。並記錄其位址和...

海量資料處理

給定a b兩個檔案,各存放50億個url,每個url各占用64位元組,記憶體限制是4g,如何找出a b檔案共同的url?答案 可以估計每個檔案的大小為5g 64 300g,遠大於4g。所以不可能將其完全載入到記憶體中處理。考慮採取分而治之的方法。遍歷檔案a,對每個url求取hash url 1000...

海量資料處理

分而治之 hash對映 hash統計 堆 快速 歸併排序 300萬個查詢字串中統計最熱門的10個查詢。針對此類典型的top k問題,採取的對策往往是 hashmap 堆。hash統計 先對這批海量資料預處理。具體方法是 維護乙個key為query字串,value為該query出現次數的hashtab...