es在linux下集群搭建
1. es下载和安装
https://www.elastic.co/cn/downloads/elasticsearch
官网下载linux下压缩包
上传至服务器
本次搭建为单机伪集群
mkdir /opt/es
tar -xzvf elasticsearch-7.5.1-linux-x86_64.tar.gz
cp -r elasticsearch-7.5.1 /opt/es/elasticsearch-7.5.1-node1
vim /opt/es/elasticsearch-7.5.1-node1/config/elasticsearch.yml
修改如下配置
cluster.name: hcq
node.name: cq_node_1
network.host: 0.0.0.0
http.port: 9200
transport.tcp.port: 9300
discovery.zen.ping.unicast.hosts: ["127.0.0.1:9300", "127.0.0.1:9301","127.0.0.1:9302"]
cp -r elasticsearch-7.5.1 /opt/es/elasticsearch-7.5.1-node2
cp -r elasticsearch-7.5.1 /opt/es/elasticsearch-7.5.1-node3
vim /opt/es/elasticsearch-7.5.1-node2/config/elasticsearch.yml
cluster.name: hcq
node.name: cq_node_2
network.host: 0.0.0.0
http.port: 9201
transport.tcp.port: 9301
discovery.zen.ping.unicast.hosts: ["127.0.0.1:9300", "127.0.0.1:9301","127.0.0.1:9302"]
vim /opt/es/elasticsearch-7.5.1-node3/config/elasticsearch.yml
cluster.name: hcq
node.name: cq_node_3
network.host: 0.0.0.0
http.port: 9202
transport.tcp.port: 9302
discovery.zen.ping.unicast.hosts: ["127.0.0.1:9300", "127.0.0.1:9301","127.0.0.1:9302"]
需要修改es文件夹启动的用户,因为es不允许root用户启动.
su root
cd /opt
sudo chown -R hcq:users es
对于yml的配置,可参考如下.
cluster.name: elasticsearch
# 配置的集群名称,默认是elasticsearch,es服务会通过广播方式自动连接在同一网段下的es服务,通过多播方式进行通信,同一网段下可以有多个集群,通过集群名称这个属性来区分不同的集群。
node.name: "Franz Kafka"
# 当前配置所在机器的节点名,你不设置就默认随机指定一个name列表中名字,该name列表在es的jar包中config文件夹里name.txt文件中,其中有很多作者添加的有趣名字。
node.master: true
指定该节点是否有资格被选举成为node(注意这里只是设置成有资格, 不代表该node一定就是master),默认是true,es是默认集群中的第一台机器为master,如果这台机挂了就会重新选举master。
node.data: true
# 指定该节点是否存储索引数据,默认为true。
index.number_of_shards: 5
# 设置默认索引分片个数,默认为5片。
index.number_of_replicas: 1
# 设置默认索引副本个数,默认为1个副本。如果采用默认设置,而你集群只配置了一台机器,那么集群的健康度为yellow,也就是所有的数据都是可用的,但是某些复制没有被分配
# (健康度可用 curl 'localhost:9200/_cat/health?v' 查看, 分为绿色、黄色或红色。绿色代表一切正常,集群功能齐全,黄色意味着所有的数据都是可用的,但是某些复制没有被分配,红色则代表因为某些原因,某些数据不可用)。
path.conf: /path/to/conf
# 设置配置文件的存储路径,默认是es根目录下的config文件夹。
path.data: /path/to/data
# 设置索引数据的存储路径,默认是es根目录下的data文件夹,可以设置多个存储路径,用逗号隔开,例:
# path.data: /path/to/data1,/path/to/data2
path.work: /path/to/work
# 设置临时文件的存储路径,默认是es根目录下的work文件夹。
path.logs: /path/to/logs
# 设置日志文件的存储路径,默认是es根目录下的logs文件夹
path.plugins: /path/to/plugins
# 设置插件的存放路径,默认是es根目录下的plugins文件夹, 插件在es里面普遍使用,用来增强原系统核心功能。
bootstrap.mlockall: true
# 设置为true来锁住内存不进行swapping。因为当jvm开始swapping时es的效率 会降低,所以要保证它不swap,可以把ES_MIN_MEM和ES_MAX_MEM两个环境变量设置成同一个值,并且保证机器有足够的内存分配给es。 同时也要允许elasticsearch的进程可以锁住内# # 存,linux下启动es之前可以通过`ulimit -l unlimited`命令设置。
network.bind_host: 192.168.0.1
# 设置绑定的ip地址,可以是ipv4或ipv6的,默认为0.0.0.0,绑定这台机器的任何一个ip。
network.publish_host: 192.168.0.1
# 设置其它节点和该节点交互的ip地址,如果不设置它会自动判断,值必须是个真实的ip地址。
network.host: 192.168.0.1
# 这个参数是用来同时设置bind_host和publish_host上面两个参数。
transport.tcp.port: 9300
# 设置节点之间交互的tcp端口,默认是9300。
transport.tcp.compress: true
# 设置是否压缩tcp传输时的数据,默认为false,不压缩。
http.port: 9200
# 设置对外服务的http端口,默认为9200。
http.max_content_length: 100mb
# 设置内容的最大容量,默认100mb
http.enabled: false
# 是否使用http协议对外提供服务,默认为true,开启。
gateway.type: local
# gateway的类型,默认为local即为本地文件系统,可以设置为本地文件系统,分布式文件系统,hadoop的HDFS,和amazon的s3服务器等。
gateway.recover_after_nodes: 1
# 设置集群中N个节点启动时进行数据恢复,默认为1。
gateway.recover_after_time: 5m
# 设置初始化数据恢复进程的超时时间,默认是5分钟。
gateway.expected_nodes: 2
# 设置这个集群中节点的数量,默认为2,一旦这N个节点启动,就会立即进行数据恢复。
cluster.routing.allocation.node_initial_primaries_recoveries: 4
# 初始化数据恢复时,并发恢复线程的个数,默认为4。
cluster.routing.allocation.node_concurrent_recoveries: 2
# 添加删除节点或负载均衡时并发恢复线程的个数,默认为4。
indices.recovery.max_size_per_sec: 0
# 设置数据恢复时限制的带宽,如入100mb,默认为0,即无限制。
indices.recovery.concurrent_streams: 5
# 设置这个参数来限制从其它分片恢复数据时最大同时打开并发流的个数,默认为5。
discovery.zen.minimum_master_nodes: 1
# 设置这个参数来保证集群中的节点可以知道其它N个有master资格的节点。默认为1,对于大的集群来说,可以设置大一点的值(2-4)
discovery.zen.ping.timeout: 3s
# 设置集群中自动发现其它节点时ping连接超时时间,默认为3秒,对于比较差的网络环境可以高点的值来防止自动发现时出错。
discovery.zen.ping.multicast.enabled: false
# 设置是否打开多播发现节点,默认是true。
discovery.zen.ping.unicast.hosts: ["host1", "host2:port", "host3[portX-portY]"]
# 设置集群中master节点的初始列表,可以通过这些节点来自动发现新加入集群的节点。
discovery.seed_hosts:
- 192.168.1.10:9300
- 192.168.1.11
- seeds.mydomain.com
cluster.initial_master_nodes:
- master-node-a
- master-node-b
- master-node-c
2. es-head安装
es管理工具
mkdir /opt/es-head/
cd /opt/es-head/
git clone git://github.com/mobz/elasticsearch-head.git
cd elasticsearch-head/
npm install #执行安装
npm run start -d #后台启动服务
如果权限不够,切换到root用户下安装
需要安装nodejs和npm
export JAVA_HOME=/usr/local/jdk8/
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$JAVA_HOME/bin:$PATH
3. kibana安装
es可视化工具
官网下载
https://www.elastic.co/cn/downloads/kibana
windows和linux下都相同,选择在linux下安装
tar -xzvf kibana-7.5.1-linux-x86_64.tar.gz
es mv kibana-7.5.1-linux-x86_64 /opt/es/kubana-7.5.1
es cd /opt/es/kubana-7.5.1/config
修改如下
server.port: 5601
server.host: 192.168.1.106 # 此处如设置成localhost其他机器访问不了
elasticsearch.hosts: ["http://localhost:9200"] # 可设置多个 为es的服务地址
切换到bin目录下启动即可
4. logstash安装
官网下载
https://www.elastic.co/guide/en/logstash/index.html
解压安装 和kibana相同
logstash主要是配置文件的区别
须花费时间学习
例如mysql收集到logstash
logstash5版本以上已集成jdbc插件,无需下载安装,直接使用
input {
jdbc {
# mysql 数据库链接,shop为数据库名
jdbc_connection_string => "jdbc:mysql://localhost:3001/test"
# 用户名和密码
jdbc_user => "root"
jdbc_password => "root"
# 驱动位置
jdbc_driver_library => "D:/software/logstash-6.2.2/logstash-6.2.2/mysqletc/mysql-connector-java-5.1.40.jar"
# 驱动类名
jdbc_driver_class => "com.mysql.jdbc.Driver"
jdbc_paging_enabled => "true"
jdbc_page_size => "50000"
# 执行的sql 文件路径+名称
statement_filepath => "D:/software/logstash-6.2.2/logstash-6.2.2/mysql/jdbc.sql"
# 设置监听间隔 各字段含义(由左至右)分、时、天、月、年,全部为*默认含义为每分钟都更新
schedule => "* * * * *"
}
}
filter {
json {
source => "message"
remove_field => ["message"]
}
}
output {
elasticsearch {
# ES的IP地址及端口
hosts => ["localhost:9200"]
# 索引名称
index => "synces"
# 需要关联的数据库中有有一个id字段,对应类型中的id
document_id => "%{id}"
# 索引名称
document_type => "xwjUser"
}
stdout {
# JSON格式输出
codec => json_lines
}
}
有很多这类的配置文件,logstash有许多beats可以从不同的端收集数据到es中.
本次只是安装而已,学习使用是一个还需花费时间.