ELK集群的搭建 虛擬機器

2021-10-07 09:38:29 字數 2220 閱讀 6418

一、複製虛擬機器

1.開啟linux虛擬機器,把之前做的名稱為elk002(**:

2.專案在未啟動的狀態下複製兩次,分別命名為elk005、elk006(複製後的名稱隨意,自己記住就行)

3.將elk002、elk005、elk006都啟動

二、修改主機名和主機列表(以下操作三個都要操作)

2.主機名

輸入:vi /etc/hostname

elk002主機名修改為:bigdata01

elk005主機名修改為:bigdata02

elk006主機名修改為:bigdata03

4.每個做完都要檢視防火牆是不是關閉,重啟網路:systemctl restart network

三、配置免密登入(同一操作重複三遍(elk002、elk005、elk006))

1.ssh-keygen -t rsa -p 「」 生成私鑰

注:enter回車繼續

2.cat .ssh/id_rsa.pub >> .ssh/authorized_keys 複製私鑰到公鑰

3.ssh-copy-id -i .ssh/id_rsa.pub -p22 root@bigdata01 遠端複製到另一台機器

4.ssh -p 22 root@bigdata01 遠端登入驗證,不需要輸入密碼即可

注:bigdata001分別連線bigdata002、bigdata003,bigdata002分別連線bigdata003、bigdata001,

bigdata003分別連線bigdata001、bigdata002.(重複上面2-4步驟,每個連線成功後exit退出,再執行下乙個)

四、配置elasticsearch集群

1.輸入:vi /opt/es622/config/elasticsearch.yml

(1)修改以下elk002:

node.name : master

node.master : true

network.host : 192.168.56.105

discovery.zen.ping.unicast.hosts : [「192.168.56.105」,「192.168.56.106」,「192.168.56.107」]

(2)修改以下elk005:

node.name : master001

node.master : false

network.host : 192.168.56.106

discovery.zen.ping.unicast.hosts : [「192.168.56.106」,「192.168.56.107」,「192.168.56.105」]

(3)修改以下elk006:

node.name : master002

node.master : false

network.host : 192.168.56.107

discovery.zen.ping.unicast.hosts : [「192.168.56.107」,「192.168.56.105」,「192.168.56.106」]

注:修改儲存後出來輸入:source /etc/profile 執行生效

2.切換使用者:su es

3.elk005、elk006中刪除es622下的data和log目錄

4.分別執行elk002、elk005、elk006,輸入: ./es622/bin/elasticsearch 啟動

5.再重新開啟elk002視窗,在root使用者eshead目錄下:npm run start,開啟瀏覽器

輸入:192.168.56.105:9100成功連線

注:以上所有命令都是在英文狀態下輸入

正確執行後,如果瀏覽器連線不上,建議換其他的瀏覽器登入(個人建議google chrome)

3臺虛擬機器搭建kafka集群

上篇部落格,已經介紹了三颱虛擬機器搭建zookeeper集群。本篇講繼續搭建kafka集群。首先建立目錄,以便管理。mkdir home captain kafka cd home captain kafka 將壓縮包放入到目錄中,壓縮包 1 解壓安裝包 2 修改解壓後的檔名稱 mv kafka 2...

3臺虛擬機器搭建kafka集群

系統 centos7 kafka安裝包版本 kafka 2.11 0.11.0.0.tgz 1.在opt目錄下建立module目錄,2.將kafka解壓到module目錄下 tar zxvf kafka 2.11 0.11.0.0.tgz c opt module 3.在解壓後的kafka根目錄下建...

ELK集群搭建

一般我們需要進行日誌分析場景 直接在日誌檔案中 grep awk 就可以獲得自己想要的資訊。但在規模較大的場景中,此方法效率低下,面臨問題包括日誌量太大如何歸檔 文字搜尋太慢怎麼辦 如何多維度查詢。需要集中化的日誌管理,所有伺服器上的日誌收集彙總。常見解決思路是建立集中式日誌收集系統,將所有節點上的...