Flume整合Kafka的簡單demo記錄

2021-09-27 06:41:12 字數 1340 閱讀 4838

啟動zookeeper和kafka,單節點

bin/zookeeper-server-start.sh config/zookeeper.properties

bin/kafka-server-start.sh config/server.properties

2. 建立主題

建立乙個主題 flume-demo,之後 flume 收集到的資料都會發到這個主題上:

bin/kafka-topics.sh --create --bootstrap-server service1:9092 --replication-factor 1 --partitions 1 --topic flume-demo

3. 啟動kafka消費者

bin/kafka-console-consumer.sh --bootstrap-server service1:9092 --topic flume-demo

4. 配置flume

新建配置檔案 exec-memory-kafka.properties。監聽乙個名為 kafka.log 的檔案,當檔案內容有變化時,將新增加的內容傳送到 kafka 的 flume-demo主題上

a1.sources = s1

a1.channels = c1

a1.sinks = k1

a1.sources.s1.type=exec

a1.sources.s1.command=tail -f /tmp/kafka.log

a1.sources.s1.channels=c1

#設定kafka接收器

a1.sinks.k1.type= org.apache.flume.sink.kafka.kafkasink

#設定kafka位址

a1.sinks.k1.brokerlist=service1:9092

#設定傳送到kafka上的主題

a1.sinks.k1.topic=flume-demo

#設定序列化方式

a1.sinks.k1.serializer.class=kafka.serializer.stringencoder

a1.sinks.k1.channel=c1

a1.channels.c1.type=memory

a1.channels.c1.capacity=10000

a1.channels.c1.transactioncapacity=100

5. 啟動flume

flume-ng agent --conf conf --conf-file examples/exec-memory-kafka.properties --name a1 -dflume.root.logger=info,console

Kafka與flume的整合

為我們的source channel sink起名 a1.sources r1 a1.channels c1 a1.sinks k1 指定我們的source收集到的資料傳送到哪個管道 a1.sources r1.channels c1 指定我們的source資料收集策略 a1.sources r1....

kafka整合flume詳細步驟

對於初學者來說,可能對kafka和flume有一定的了解,但是並沒有過實際的應用,也不知道如何來使用。這篇文章主要針對kafka和flume的整合 環境 linux 準備工作 搭建好zookeeper集群及kafka集群 版本 kafka 2.11 1.1.0,flume 1.8.0 步驟 啟動zo...

HDP 集群中flume與kafka的整合

首先保證flume與kafka正確安裝並啟動,這個比較簡單,直接在ambari中新增新服務即可,不多贅述。配置flume 新建一配置檔案kafka.conf,編輯,追加一下內容。掃瞄指定檔案配置 agent.sources s1 agent.channels c1 agent.sinks k1 ag...