Hadoop將過時了?

2021-09-07 22:47:05 字數 2804 閱讀 2473

hadoop這個單詞如今鋪天蓋地,幾乎成了大資料的代名詞。僅僅數年時間,hadoop從邊緣技術迅速成長為乙個事實標準。如今想玩轉大資料,搞企業分析或者商業智慧型,沒有hadoop還真不行。但hadoop狂熱的背後卻醞釀著一場技術變革,hadoop的核心技術在google那裡已經過時,因為hadoop並不擅長處理「快資料」。

今天,hadoop似乎已經毫無爭議地成了企業大資料技術標準,看上去hadoop將根植企業,其地位在未來十年似乎都不會動搖。但是gigaom的專欄作家mike miller卻發出了「不和諧」的聲音:「企業真的會為乙個盛極而衰的技術買單嗎?」

起源:google檔案系統和google mapreduce為了**hadoop的生命週期我們需要回溯hadoop的靈感源泉——google的mapreduce。為了迎接資料大**的挑戰,google的工程師jeff dean和sanjay ghemawat架構了兩個影響深遠的系統:google file system(gfs)和google mapreduce(gmr)。前者是乙個能在通用硬體上管理eb(exabyte)級資料的出色的可行方案。後者則是乙個同樣出色的,能在通用伺服器上大規模並行處理資料的模型設計實現。

gmr的出彩之處在於能夠讓普通的google使用者和開發者也能夠進行高速、容錯的大資料處理。gmr和gfs成了搜尋引擎資料處理引擎的核心,該引擎抓取、分析並分級web頁面,並最終為使用者呈現日常搜尋結果。

hadoop生態系統

我們再回頭看看apache hadoop的兩大組成部分:hadoop分布式檔案系統和hadoop,確實就是gfs和gmr的翻版。雖然hadoop正在發展成為乙個無所不包的資料管理和處理生態系統,但是在這個生態系統的核心,依然是mapreduce系統。所有的資料和應用最終都將降解為map和reduce的工作。

google已經進化,hadoop能否跟上?

有趣的事情是,gmr已經不再佔據google軟體堆疊中的顯赫位置。當企業被hadoop解決方案鎖定到mapreduce上時,google卻已經準備淘汰mapreduce技術。雖然apache專案和hadoop商業發行版本試圖通過hbase、hive和下一代mapreduce(亦即yarn)彌補hadoop的短板。但筆者認為只有用全新的,非mapreduce架構的技術替代hadoop核心(hdfs和zookeeper)才能與谷歌的技術抗衡。(這裡有乙個更加技術性的闡述:gluecon-miller-horizon)

增量索引過濾器(percolator for incremental indexing)和頻繁變化資料集分析。hadoop是一台大型「機器」,當啟動並全速運轉時處理資料的效能驚人,你唯一需要操心的就是硬碟的傳輸速度跟不上。但是每次你準備啟動分析資料時,都需要把所有的資料都過一遍,當資料集越來越龐大時,這個問題將導致分析時間無限延長。

那麼google是如何解決讓搜尋結果返回速度越來越接近實時的呢?答案是用增量處理引擎percolator代替gmr。通過只處理新增的、改動過的或刪除的文件和使用二級指數來高效率建目錄,返回查詢結果。percolator**的作者寫道:「將索引系統轉換成增量系統…將文件處理延遲縮短了100倍。」這意味著索引web新內容的速度比用mapreduce快100倍!

類似大型強子對撞機產生的資料將不斷變大,twitter也是如此。這也是為什麼hbase中會新增觸發流程,而twitter storm正在成為實時處理流資料的熱門技術。

用於點對點分析的dremel。google和hadoop生態系統都致力於讓mapreduce成為可用的點對點分析工具。從sawzall到pig和hive,建立了大量的介面層,但是儘管這讓hadoop看上去更像sql系統,但是人們忘記了乙個基本事實——mapreduce(以及hadoop)是為組織資料處理任務開發的系統,誕生於工作流核心,而不是點對點分析。

今天有大量的bi/分析查詢都是點對點模式,屬於互動和低延遲的分析。hadoop的map和reduce工作流讓很多分析師望而卻步,而且工作啟動和完成工作流執行的漫長週期對於很多互動性分析來說意味著糟糕的使用者體驗。於是,google發明了dremel(業界也稱之為bigquery產品)專用工具,可以讓分析師數秒鐘內就掃瞄成pb(petabyte)的資料完成點到點查詢,而且還能支援視覺化。google在dremel的**中聲稱:「dremel能夠在數秒內完成數萬億行資料的聚合查詢,比mapreduce快上100倍!」

分析圖資料的pregel。google mapreduce的設計初衷是分析世界上最大的資料圖譜——網際網路。但是在分析人際網路、電信裝置、文件和其他一些圖資料時就沒有那麼靈光了,例如mapreduce在計算單源最短路徑(sssp)時效率非常低下,已有的並行圖演算法庫parallel bgl或者cgmgraph又沒有容錯。

於是google開發了pregel,乙個可以在分布式通用伺服器上處理pb級別圖資料的大型同步處理應用。與hadoop經常在處理圖資料時產生指數級資料放大相比,pregel能夠自然高效地處理sssp或pagerank等圖演算法,所用時間要短得多,**也簡潔得多。

目前唯一能與pregel媲美的開源選擇是giraph,這是乙個早期的apache孵化專案,呼叫了hdfs和zookeeper。githb上還有乙個專案golden orb可用。

總結

總而言之,hadoop是乙個可以在普通通用硬體集群上進行大規模資料處理的優秀工具。但是如果你希望處理動態資料集、點對點分析或者圖資料結構,那麼google已經為我們展示了大大優於mapreduce范型的技術選擇。毫無疑問,percolator、dremel和pregel將成為大資料的新「三巨頭」,正如google的老「三巨頭」:gfs、gmr和bigtable所做的那樣。

Hadoop即將過時了嗎?

hadoop這個單詞如今鋪天蓋地,幾乎成了大資料的代名詞。僅僅數年時間,hadoop從邊緣技術迅速成長為乙個事實標準。如今想玩轉大資料,搞企業分析或者商業智慧型,沒有hadoop還真不行。但hadoop狂熱的背後卻醞釀著一場技術變革,hadoop的核心技術在google那裡已經過時,因為hadoop...

《羅輯思維》為什麼過時了?

總體來說,桃源論道對羅輯思維有三個批判 第乙個批判,羅胖老師的思維方式過時了。所謂過時,就是說這種思維方式會越來越不適用於當今社會。為什麼這麼講,兩個原因 第乙個原因,羅胖老師通常告訴我們乙個唯一正確的答案,在他的思維方式裡相對是偶然的,絕對是必然的。比如,在 只有一種人能改寫歷史 這一集裡,羅胖老...

學習 使用C 開發是不是過時了

c 在開發過程中真心很尷尬。1 拿相同薪水使用不同語言的程式設計師,開發大多數相同的常見業務需求,c 總是進度較慢 不考慮時 空複雜性及效率 2 擴充套件性 跨平台 資源 記憶體等 比其他語言表現差,提高了產品成本 3 總之,c 開發業務邏輯問題很多很多,適合用c 來開發的需求沒有其他語言多 且硬體...