如何確定map以及reduce的個數

2021-07-05 00:15:09 字數 1906 閱讀 2999

一般情況下,在輸入源是檔案的時候,乙個task的map數量由splitsize來決定的,那麼splitsize是由以下幾個來決定的

goalsize = totalsize / mapred.map.tasks

insize = max

splitsize = max (minsize, min(goalsize, dfs.block.size))

乙個task的reduce數量,由partition決定。

在輸入源是資料庫的情況下,比如mysql,對於map的數量需要使用者自己指定,比如

jobconf.set(「mapred.map.tasks.nums」,20);

如果資料來源是hbase的話,map的數量就是該錶對應的region數量。

map和reduce是hadoop的核心功能,hadoop正是通過多個map和reduce的並行執行來實現任務的分布式平行計算,從這個觀點來看,如果將map和reduce的數量設定為1,那麼使用者的任務就沒有並行執行,但是map和reduce的數量也不能過多,數量過多雖然可以提高任務並行度,但是太多的map和reduce也會導致整個hadoop框架因為過度的系統資源開銷而使任務失敗。所以使用者在提交map/reduce作業時應該在乙個合理的範圍內,這樣既可以增強系統負載勻衡,也可以降低任務失敗的開銷。

1 map的數量

map的數量通常是由hadoop集群的dfs塊大小確定的,也就是輸入檔案的總塊數,正常的map數量的並行規模大致是每乙個node是10~100個,對於cpu消耗較小的作業可以設定map數量為300個左右,但是由於hadoop的每乙個任務在初始化時需要一定的時間,因此比較合理的情況是每個map執行的時間至少超過1分鐘。具體的資料分片是這樣的,inputformat在預設情況下會根據hadoop集群的dfs塊大小進行分片,每乙個分片會由乙個map任務來進行處理,當然使用者還是可以通過引數mapred.min.split.size引數在作業提交客戶端進行自定義設定。還有乙個重要引數就是mapred.map.tasks,這個引數設定的map數量僅僅是乙個提示,只有當inputformat 決定了map任務的個數比mapred.map.tasks值小時才起作用。同樣,map任務的個數也能通過使用jobconf 的conf.setnummaptasks(int num)方法來手動地設定。這個方法能夠用來增加map任務的個數,但是不能設定任務的個數小於hadoop系統通過分割輸入資料得到的值。當然為了提高集群的併發效率,可以設定乙個預設的map數量,當使用者的map數量較小或者比本身自動分割的值還小時可以使用乙個相對交大的預設值,從而提高整體hadoop集群的效率。

2 reduece的數量

reduce在執行時往往需要從相關map端複製資料到reduce節點來處理,因此相比於map任務。reduce節點資源是相對比較缺少的,同時相對執行較慢,正確的reduce任務的個數應該是0.95或者1.75 *(節點數 ×mapred.tasktracker.tasks.maximum引數值)。如果任務數是節點個數的0.95倍,那麼所有的reduce任務能夠在 map任務的輸出傳輸結束後同時開始執行。如果任務數是節點個數的1.75倍,那麼高速的節點會在完成他們第一批reduce任務計算之後開始計算第二批 reduce任務,這樣的情況更有利於負載均衡。同時需要注意增加reduce的數量雖然會增加系統的資源開銷,但是可以改善負載勻衡,降低任務失敗帶來的負面影響。同樣,reduce任務也能夠與 map任務一樣,通過設定jobconf 的conf.setnumreducetasks(int num)方法來增加任務個數。

3 reduce數量為0

有些作業不需要進行歸約進行處理,那麼就可以設定reduce的數量為0來進行處理,這種情況下使用者的作業執行速度相對較高,map的輸出會直接寫入到 setoutputpath(path)設定的輸出目錄,而不是作為中間結果寫到本地。同時hadoop框架在寫入檔案系統前並不對之進行排序。

hive 的map數和reduce如何確定

一 控制hive任務中的map數 1.通常情況下,作業會通過input的目錄產生乙個或者多個map任務。主要的決定因素有 input的檔案總個數,input的檔案大小,集群設定的檔案塊大小 目前為128m,可在hive中通過set dfs.block.size 命令檢視到,該引數不能自定義修改 2....

從Map和Reduce說起

從map和reduce說起 最近在看函式式程式設計的一些東西,尤其是sheme和python,有些困惑,遂寫下一些東西。在python中,map reduce filter是函式式程式設計的一組重要的工具.map將過程 函式 應用於資料以產生新的資料,而reduce則是將資料進行歸併.下面的語句分別...

map 函式和reduce 函式

map 函式 也稱對映物件函式,接受兩個引數,第乙個是函式,第二個是序列。map 將傳入的函式依次作用到序列的每個元素並把結果作為list返回。map返回的結果是乙個可迭代的map物件,可以使用 next 獲取值,也可使用for迴圈迭代獲取或者直接轉換為list獲取更加暴力。def demo x r...