Flume丟失資料的問題

2021-10-08 17:55:00 字數 332 閱讀 1231

在一些網路資料中有看到當flume的資料量達到70mb/s以上時,就會出現丟失資料的情況。

但是根據flume的架構原理,採用filechannel的flume是不可能丟失資料的,因為其內部有完善的事務機制(acid)。

這兩個環節都不可能丟失資料。

唯一可能丟失資料的是channel採用memorychannel,

並且在實際開發生產環境中,還沒有出現過flume丟失資料的情況,因此flume在資料量大的時候丟失資料的情況還有待商榷。

ps:flume不會丟失資料,但是可能會造成資料重複,例如資料已經由sink發出,但是沒有接收到響應,sink會再次傳送資料,導致資料重複

kafka資料丟失問題

1 消費端弄丟了資料 唯一可能導致消費者弄丟資料的情況,就是說,你那個消費到了這個訊息,然後消費者那邊自動提交了offset,讓kafka以為你已經消費好了這個訊息,其實你剛準備處理這個訊息,你還沒處理,你自己就掛了,此時這條訊息就丟咯。這不是一樣麼,大家都知道kafka會自動提交offset,那麼...

Kafka 資料丟失問題

kafka的ack機制 在kafka傳送資料的時候,每次傳送訊息都會有乙個確認反饋機制,確保訊息正常的能夠被收到,其中狀態有0,1,1。producer.type sync request.required.acks 1producer.type async request.required.ack...

socket接收資料丟失問題。

每秒傳輸2600個800byte的udp資料報,傳輸10分鐘左右,wireshark能夠百分之百接收到資料,但是socket會出現資料的丟書。原因 socket預設緩衝區大小是65536,由於資料量過大,緩衝區擠滿而導致資料的丟失。receiver socket socket.socket sock...