HDFS客戶端讀寫流程及checkpoint

2022-09-04 06:33:12 字數 1485 閱讀 2145

1)客戶端請求上傳資料到伺服器

2)伺服器接收到這個請求,然後到自己的元資料裡面去查詢,元資料中是否記錄了該檔案的存在

3)nn響應客戶端是否可以上傳

4)伺服器會傳送再次請求,需要上傳多大的資料檔案

5)伺服器會檢查datanode的資訊

6)伺服器會根據上傳檔案大小進行排程,排程出最合適的datanode佇列返回給客戶端

【每隔3秒鐘,datanode都會向nn傳送乙個資料,dn的狀態和可用空間】

7)告訴dn需要上傳資料

8)客戶端接收佇列資料:

通過pop方法,取出第乙個節點的位址,然後訪問該節點,並吧剩下的其他節點的ip位址帶過去;

第乙個dn接收資料,再從佇列中取出第乙個,繼續把剩下的ip帶過去,直到最後乙個節點結束;

最後乙個節點收到資訊之後,想源位址傳送確認訊息,確認到第乙個dn的時候,dn會把確認訊息返回給客戶端;

【即建立好了傳輸通道】

9)客戶端接收到最終確認訊息之後,開始往每乙個dn上寫入資料

10)最終寫入成功會將訊息返回給客戶端

11)客戶端向nn匯報,資料寫入成功,nn就會把訊息寫入元資料中

12)最後nn會通知dn自動做資料副本平衡

2)nn把檔案的元資料資訊返回給客戶端

3)客戶端接收到資料後,就到相應的客戶端去請求資料即可

4)最後客戶端本地進行資料追加合併從而獲得整個檔案

1)元資料:元資料是我們記憶體的一塊空間

2)元資料:是乙個檔案,fsimage_0000000000xx檔案就是元資料

3)元資料:就是乙個小型的資料庫,裡面存放了所有檔案的位置

1)secondarynamenode實際上是對namenode資料的乙個備份

2)secondarynamenode是為了防止namenode機器掛掉

3)secondarynamenode不能和namenode放在一起

可以修改hdfs-site.xml配置檔案來指定secondarynamenode的位址

1)checkpoint就是定時檢查節點

hdfs元資料管理機制參考:

客戶端讀寫資料到HDFS的流程

1 客戶端發出寫資料請求,hadoop fs put localfile.txt hdfsfile.txt 本地的localfile.txt檔案大小是170mb,而hdfs預設的block大小是128mb,因此這個檔案將會被分成兩個block 2 namenode首先檢查這個檔案在hdfs中是否存在...

hdfs客戶端操作

hdfs的客戶端有多種形式 網頁形式 命令列形式 客戶端在 執行,沒有約束,只要執行客戶端的機器能夠跟hdfs集群聯網 檔案的切塊大小和儲存的副本數量,都是由客戶端決定!所謂的由客戶端決定,是通過配置引數來定的 hdfs的客戶端會讀以下兩個引數,來決定切塊大小 副本數量 切塊大小的引數 dfs.bl...

hdfs客戶端操作

這裡hdfs客戶端指的是eclipse 一 獲取hadoop安裝包解壓後進入share資料夾裡面的所有jar包 二 這裡如果你客戶端 eclipse所在機器 是win7,需要編譯hadoop原始碼來適應你的機器。三 配置hadoop home環境變數和path 四 拷貝win7電腦上的檔案到虛擬機器...