logstash日誌採集工具的安裝部署

2021-09-24 14:21:17 字數 1807 閱讀 5410

新增如下內容:

使環境變數生效:source /etc/profile

輸入源為nginx的日誌檔案,輸出源為kafka

input 

}output "

charset => "utf-8"

}bootstrap_servers => "hadoop1:9092,hadoop2:9092,hadoop3:9092"}}

輸入源為txt檔案,輸出源為kafka

input 

path => "d:/gamelog/basedir/*/*.txt"

discover_interval => 30

start_position => "beginning"

}}output "

charset => "gb2312"

}bootstrap_servers => "hadoop1:9092,hadoop2:9092,hadoop3:9092"}}

輸入源為nginx的日誌檔案,輸出源為elasticsearch

input 

}output "

hosts => ["hadoop1:9200", "hadoop2:9200", "hadoop3:9200"]}}

}

input 

kafka

}filter

} if [type] == "gamelog"

add_field => "

"current_map" => "%"

"current_x" => "%"

"current_y" => "%"

"user" => "%"

"item" => "%"

"item_id" => "%"

"current_time" => "%"

}remove_field => ["message"]}}}

output

} if [type] == "gamelog"

hosts => ["hadoop1:9200","hadoop2:9200","hadoop3:9200"]}}}

注:utf-16be為解決中文亂碼,而不是utf-8

1) 在使用logstash採集日誌時,如果我們採用file為input型別,採用不能反覆對乙份檔案進行測試!第一次會成功,之後就會失敗!

分布式日誌工具logstash工具入門

以下是我年前試用的分布式日誌工具logstash工具,現分享給大家。其功能大概如下 1.根據業務關鍵字,搜尋相關日誌。2.報表統計功能 未做研究使用 3.採集多個主機上的業務日誌,並通過kibana web介面訪問日誌 4.安裝簡單,啟動logstash elasticsearch kibana 訪...

Beats輕量級日誌採集工具

beats 平台集合了多種單一用途資料採集器。這些採集器安裝後可用作輕量型 從成百上千或成千上萬臺機器向 logstash 或 elasticsearch 傳送資料。常用的beats有filebeat 收集檔案 metricbeat 收集服務 系統的指標資料 packetbeat 收集網路包 等。這...

日誌採集 基於Flink的日誌採集

目前基於elk架構的日誌系統,通過filebeat收集上來的日誌都會傳送到同乙個kafka topic中,然後再由logstash消費處理寫入elasticsearch中,這種方式導致該topic包含所有業務日誌,那麼各個業務去做實時統計分析就會造成重複消費,使得流量成本的浪費 對於離線分析的日誌 ...