海量資料處理

2021-08-03 02:50:57 字數 1432 閱讀 6926

需求:

在兩個不同的資料庫例項裡的兩張不同的表中找出近5個月內,account_id欄位下相同的資料。

一張表數量級百萬行,另一張表千萬行。

分析:

因為是在不同例項下,所以不能直接在資料庫裡操作,要通過指令碼來,本次使用php。

要先從兩張表裡把所需要的資料查詢出來,這裡要用原生的pdo,利用query,為什麼呢要用原生的pdo呢,因為一些框架封裝好的pdo是把資料都存放在陣列中,但是海量的資料存在陣列中,肯定是不行的。而用query,返回的資料集是 pdostatement型別,這是迭代器的介面實現。其中還要注意,要取消掉快取結果集,$pdo->setattribute(pdo::mysql_attr_use_buffered_query, false)。這樣能大大提高效率。以上說的可以參考兩個文章:

php處理大資料

php匯出mysql大資料

有個問題,query只能執行一條sql,執行完要將其取出來或是釋放資源,這樣的話,解決方法是開兩個pdo。

將返回的資料集通過演算法分到不同的檔案下。

ini_set('max_execution_time', '0');

$sqlweb = "select 語句";

$pdoweb = new \pdo('mysql:host=*;dbname=*', '*', '*');

$pdoweb->setattribute(\pdo::mysql_attr_use_buffered_query, false);

$rowsweb = $pdoweb->query($sqlweb);

foreach ($rowsweb

as$row)

這邊用的檔案劃分演算法是:通過計算每個資料的每個字元的ascii碼的大小+5000,然後%1000,最終結果覺得被劃分到哪個檔案。

`public function myhash($key)

return $asciitotal % 1000;

}`最後將檔案中的資料通過迭代器來進行遍歷。

public

function

fileweball

($file)

while(($line=fgets($handle))!==false)

if (!feof($handle))

fclose($handle);

return ;

}

這裡寫**片
public

function

filehandle

() }}

}}

}

這裡寫鏈結內容

php maximum execution time

query 怎麼不耗記憶體

海量資料處理

1 有一千萬條簡訊,有重複,以文字檔案的形式儲存,一行一條,有 重複。請用5分鐘時間,找出重複出現最多的前10條。方法1 可以用雜湊表的方法對1千萬條分成若干組進行邊掃瞄邊建雜湊表。第一次掃瞄,取首位元組,尾位元組,中間隨便兩位元組作為hash code,插入到hash table中。並記錄其位址和...

海量資料處理

給定a b兩個檔案,各存放50億個url,每個url各占用64位元組,記憶體限制是4g,如何找出a b檔案共同的url?答案 可以估計每個檔案的大小為5g 64 300g,遠大於4g。所以不可能將其完全載入到記憶體中處理。考慮採取分而治之的方法。遍歷檔案a,對每個url求取hash url 1000...

海量資料處理

分而治之 hash對映 hash統計 堆 快速 歸併排序 300萬個查詢字串中統計最熱門的10個查詢。針對此類典型的top k問題,採取的對策往往是 hashmap 堆。hash統計 先對這批海量資料預處理。具體方法是 維護乙個key為query字串,value為該query出現次數的hashtab...