前提:安裝了jdk1.8
1、準備三颱機器
hadoop100 192.168.33.100hadoop101
192.168.33.101
hadoop102
192.168.33.102
2、準備乙個非root賬戶(一定要使用非root使用者,不然es啟動不起來)
3、將elasticsearch-5.4.3.tar.gz包上傳到hadoop100的機器上,並解壓到指定目錄
tar -zxvf elasticsearch-5.4.3.tar.gz -c /home/yangwj/
4、修改配置vim elasticsearch-5.4.3/config/elasticsearch.yml
#集群名稱,通過組播的方式通訊,通過名稱判斷屬於哪個集群cluster.name: bigdata
#節點名稱,要唯一
node.name: es-1
#資料存放位置
path.data: /home/yangwj/es/data
#日誌存放位置(可選)
path.logs: /home/yangwj/es/logs
#es繫結的ip位址
network.host:
192.168.33.100
#初始化時可進行選舉的節點
discovery.zen.ping.unicast.hosts: [
"hadoop100
", "
hadoop101
", "
hadoop102
"]
5、將hadoop100的elasticsearch包複製到其他機器
scp -r ./elasticsearch-5.4.3.tar.gz yangwj@hadoop101:/home/yangwj/
scp -r ./elasticsearch-5.4.3.tar.gz yangwj@hadoop102:/home/yangwj/
6、修改其他兩台機器的配置檔案
node.name: es-2
network.host: 192.168.33.101
node.name: es-3network.host:192.168.33.102
7、建立目錄(三颱機器都要)
cd /home/yangwjmkdir - es/data es/logs
8、出現錯誤: /sbin/sysctl -p (配置生效)
[1]: max file descriptors [4096] for elasticsearch process is too low, increase to at least [65536][2]: max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144]
解決方法:
#最大虛擬記憶體太小sudo vi /etc/sysctl.conf
vm.max_map_count=262144
#使用者最大可建立檔案數太小
sudo vi /etc/security/limits.conf
* soft nofile 65536
* hard nofile 65536
9、一定要重啟機器,三颱都要,然後執行
./elasticsearch-5.4.3/bin/elasticsearch -d #後台執行
10、檢視每台機器是否正常啟動
方式1:看日誌 ,沒有報錯,最後出現start方式2:看埠, ss -tanlp
方式3:http:
//hadoop100:9200/
11、檢視集群狀態
es集群的安裝與配置
安裝es7.5.1 主機 192.168.1.234 192.168.1.233 192.168.1.240 系統 centos7 安裝包 安裝前準備 設定核心引數 cat etc sysctl.conf vm.max map count 655360eof sysctl p 設定檔案描述符限制 c...
CDH6 2 安裝 ES集群 7 6 2
groupadd elsearch useradd elsearch g elsearch chown r elsearch elsearch opt software es 使用root使用者建立es資料檔案和日誌檔案 mkdir data chown r elsearch elsearch da...
ES 集群配置
需要確認其它es節點中的data目錄,一定要清空,不能有資料。修改elasticsearch.yml這個配置檔案如下 配置集群名稱,保證每個節點的名稱相同,如此就能都處於乙個集群之內了 cluster.name es cluster 每乙個節點的名稱,必須不一樣 node.name es node1...