kafka server部署配置優化

2021-09-02 20:19:48 字數 3854 閱讀 9594

1.kafka高效能的特點及條件

kafka是乙個高吞吐量分布式訊息系統,並且提供了持久化。其高效能的有兩個重要特點:(1)利用了磁碟連續讀寫效能遠遠高於隨機讀寫的特點;(2)併發,將乙個topic拆分多個partition。

要充分發揮kafka的效能,就需要滿足這兩個條件。linkedin的測試,就把這兩個方面發揮到極致(參考

(1)磁碟的連續性

要充分利用磁碟連續讀寫高效能的特點,就意味著要減少作業系統對磁碟的重新排程。kakfa內部的實現非常巧妙:

生產:   網路 —>  pagecache(記憶體) —>磁碟

消費:   磁碟 —> 網路          (使用sendfile將磁碟資料直接拷貝到網絡卡傳送緩衝區)

這樣的設計使得,寫磁碟的機會僅僅是pagecache需要flush到磁碟的時候;這樣保證了大多數時候磁碟可以連續地讀取,而且直       接複製到網絡卡,避免消費影響到生產(寫入記憶體)。另外,使用檔案系統pagecache而不是自建快取,還利用pagecache對於            sendfile來說是透明的優勢,也就是在沒有訊息堆積時,資料流動實際時pagecahe直接到網絡卡,減少磁碟io又保證及時消費。

(2)併發,將topic拆分多個partition

kafka讀寫的單位是partition,因此,將乙個topic拆分為多個partition可以提高吞吐量。但是,這裡有個前提,就是不同partition需       要位於不同的磁碟(可以在同乙個機器)。如果多個partition位於同乙個磁碟,那麼意味著有多個程序同時對乙個磁碟的多個文         件進行讀寫,使得作業系統會對磁碟讀寫進行頻繁排程,也就是破壞了磁碟讀寫的連續性。

在linkedlin的測試中,每台機器就載入了6個磁碟,並且不做raid,就是為了充分利用多磁碟併發讀寫,又保證每個磁碟連續讀寫       的特性。

具體配置上,是將不同磁碟的多個目錄配置到broker的log.dirs,例如

log.dirs=/disk1/kafka-logs,/disk2/kafka-logs,/disk3/kafka-logs

kafka會在新建partition的時候,將新partition分布在partition最少的目錄上,因此,一般不能將同乙個磁碟的多個目錄設定到log.dirs

2.kafka在虛擬機器環境的優化

kafka高效能很大程度依賴於磁碟(檔案系統)的連續讀寫,而在虛擬機器環境中,檔案系統一些不同的特點,因此做好這些優化很有必要。

(1)虛擬檔案系統的特點

通常,虛擬機器不會直接使用物理磁碟(儘管可以)。多個物理磁碟或者raid陣列被宿主系統虛擬成乙個大的磁碟,再分配各個虛擬機器。對於虛擬檔案系統來說,有2個特點比較重要

寫優先。大多數虛擬檔案系統為了保證磁碟資料的更新,都會一定程度保證寫優先

非連續。對於可變大小的虛擬磁碟,通常再需要空間的時候再進行實際分配,造成邏輯上連續的檔案,物理儲存並不一定連續

高效能。為了支援多個虛擬機器同時執行,合理的情況下配置的整體磁碟效能會比較高

不穩定。由於多個虛擬機器同時執行的互相影響,可能會出現資源爭奪導致的不穩定 

(2)kafka在虛擬機器環境的優化

首先是,多磁碟的併發的問題。不管怎麼說,虛擬機器環境至少剝奪了單個kafka同時使用多個磁碟的優勢。也就意味著,在在同乙個虛擬機器,同乙個topic,最好只有乙個partition;當然,不同topic之間partition如果同時生產-消費也會互相影響,但不一定會同時在高峰(同個topic一定)。構建較大集群(在不同物理機)仍然能夠保持併發優勢。

其次,寫優先和不穩定也是需要考慮問題。如果多個topic同時寫入,或者其他虛擬機器搶占資源,可能會導致消費緩慢。因此,監控就顯得特別重要,對於消費過慢的partition 暫停寫入。由於pagecache缺省會使用所有可用記憶體,增加記憶體可以減少flush到磁碟的次數,使得讀取(消費)更加順利。

另外,為了保證讀寫連續性,kafka自身及其他服務不要和log.dir共享磁碟。在美團虛擬機器上,可以考慮將kafka 安裝在系統磁碟, 資料盤(/opt)完全用於日誌儲存。

總結一下,kafka在虛擬機器環境的優化有三點:

第一,組建較大集群,並保證同乙個topic的不同partition位於不同虛擬機器(所以在不同的磁碟)

第二,監控,對於消費過慢的partition(所在的broker),暫停寫入(生產),等待消費

第三,將kafka安裝在系統盤,資料盤(/opt)完全用於訊息儲存。資料盤上不安裝其他服務

不得不提的是,以上結論在美團辦公雲(讀取200mb/s +)上測試有明顯的表現;。但是,良好的配置可以提公升穩定性,比如出現多個topic同時達到高峰,或者出現別的虛          擬機搶占資源的時候,通常更不容易出現故障。

(3) 記憶體相關設定

配置優化都是修改server.properties檔案中引數值

1.網路和io操作執行緒配置優化

# broker處理訊息的最大執行緒數

num.network.threads=***

# broker處理磁碟io的執行緒數

num.io.threads=***

建議配置:

一般num.network.threads主要處理網路io,讀寫緩衝區資料,基本沒有io等待,配置執行緒數量為cpu核數加1.

num.io.threads主要進行磁碟io操作,高峰期可能有些io等待,因此配置需要大些。配置執行緒數量為cpu核數2倍,最大不超過3倍.

2.log資料檔案刷盤策略

為了大幅度提高producer寫入吞吐量,需要定期批量寫檔案。

建議配置:

# 每當producer寫入10000條訊息時,刷資料到磁碟

log.flush.interval.messages=10000

# 每間隔1秒鐘時間,刷資料到磁碟

log.flush.interval.ms=1000

3.日誌保留策略配置

當kafka server的被寫入海量訊息後,會生成很多資料檔案,且占用大量磁碟空間,如果不及時清理,可能磁碟空間不夠用,kafka預設是保留7天。

建議配置:

# 保留三天,也可以更短 

log.retention.hours=72

# 段檔案配置1gb,有利於快速**磁碟空間,重啟kafka載入也會加快(如果檔案過小,則檔案數量比較多,

# kafka啟動時是單執行緒掃瞄目錄(log.dir)下所有資料檔案)

log.segment.bytes=1073741824

4.replica複製配置

每個follow從leader拉取訊息進行同步資料,follow同步效能由這幾個引數決定,分別為拉取執行緒數(num.replica.fetchers)、最小位元組數(replica.fetch.min.bytes)、最大位元組數(replica.fetch.max.bytes)、最大等待時間(replica.fetch.wait.max.ms)

建議配置:

num.replica.fetchers 配置多可以提高follower的i/o併發度,單位時間內leader持有跟多請求,相應負載會增大,需要根據機器硬體資源做權衡

replica.fetch.min.bytes=1  預設配置為1位元組,否則讀取訊息不及時

replica.fetch.max.bytes= 5  * 1024 * 1024 預設為1mb,這個值太小,5mb為宜,根據業務情況調整

replica.fetch.wait.max.ms  follow拉取頻率,頻率過高,會導致cpu飆公升,因為leader無資料同步,leader會積壓大量無效請求情況,又因為0.8.2.x版本存在bug,定時器超時檢查比較消耗cpu,使用者需要做好權衡

5.配置jmx服務

kafka server中預設是不啟動jmx埠的,需要使用者自己配置

[lizhitao@root kafka_2.10-0.8.1]$ vim bin/kafka-run-class.sh

#最前面新增一行

Kafka server部署配置優化

kafka配置優化其實都是修改server.properties檔案中引數值 1 網路和io操作執行緒配置優化 broker處理訊息的最大執行緒數 num.network.threads broker處理磁碟io的執行緒數 num.io.threads 建議配置 一般num.network.thre...

kafka server部署配置優化

具體請參考 apache kafka中server.properties配置檔案引數說明 配置優化都是修改server.properties檔案中引數值 1.網路和io操作執行緒配置優化 broker處理訊息的最大執行緒數 num.network.threads broker處理磁碟io的執行緒數 ...

Ice 配置部署

ice提供了靈活的配置部署方案,但為了減輕運維人員的工作量,開發的時候統一約定了一種規則,以便能夠簡易安裝部署,所以總結了一套配置的規則。1.1 目錄結構 1.2 icegridregistry配置與執行 根據高可用的方案,啟動兩個registry,乙個作為master,另乙個作為replica。1...