Flume儲存日誌到MongoDB

2021-09-02 12:21:13 字數 1357 閱讀 4060

然後放到/usr/local/目錄下解壓

tar -zxvf apache-flume-1.5.2-bin.tar.gz

# 定義元件名稱  

agent2.sources = source2

agent2.sinks = sink2

agent2.channels = channel2

# 定義資料入口

agent2.sources.source2.type = syslogudp

agent2.sources.source2.host = 0.0.0.0

agent2.sources.source2.port = 10001

agent2.sources.source2.channels = channel2

# 定義資料出口

agent2.sinks.sink2.type = org.riderzen.flume.sink.mongosink

agent2.sinks.sink2.host = 192.168.8.30

agent2.sinks.sink2.port = 27017

agent2.sinks.sink2.model = single

agent2.sinks.sink2.db = test

agent2.sinks.sink2.collection = log

agent2.sinks.sink2.batch = 2

agent2.sinks.sink2.channel = channel2

# 使用記憶體管道

agent2.channels.channel2.type = memory

agent2.channels.channel2.capacity = 1000

agent2.channels.channel2.transactioncapacity = 100

然後進入flume的bin目錄啟動服務

./flume-ng agent -n agent2 -c ../conf -f ../conf/flume-server.conf
-n表示當前執行的這個agent名稱

-c表示配置檔案存放目錄

-f表示執行agent所使用的配置檔案

如果想要程式後台執行,只需要在最後空格一下,加上&即可。(非永久性,遠端斷開linux時會停止)

如果想要永久性程式後台執行,只需要在最前面加上nohup,然後加乙個空格隔開

如果想要使用debug模式檢視日誌,只需要在最後加上-dflume.root.logger=info,console即可

從flume到kafka,日誌收集

實時日誌分析 本篇文章主要測試 從flume到kafka的日誌收集,storm日誌分析,學習中!flume 配置檔案 collector collector.sources cs collector.sinks ck hbasesink collector.channels cc hbasechan...

flume實時收集日誌到kafka

flume實時收集日誌 kafka版本0.8.2 1.版本apache flume 1.7.0 bin.tar.gz 解壓後conf 目錄下配置以.conf結尾的檔案如 flume properties.conf 2.配置檔案資訊 sources 資料來源每增加乙個新增即可 a1.sources r...

flume的導日誌資料到hdfs

1.更改配置檔案 agent名,source channel sink的名稱 a1.sources r1 a1.channels c1 a1.sinks k1 具體定義source a1.sources.r1.type spooldir a1.sources.r1.spooldir root flu...