ELK教程1:ElasticSearch集群的部署

2019/08/01

在分布式系统中,应用数量众多,应用调用链复杂,常常使用ELK作为日志收集、分析和展示的组件。本篇文章将讲讲解如何部署ELK,然后讲解如何 使用Filebeat采集Spring Boot的日志输出到Logstash上,logstash再将日志输出到Elasticsearch上,最后展示到kibana上面。整个日志采集流程如下图:

1.png

在传统的日志采集只会用ELK,那么为什么需要使用filebeat呢,因为 logstash是java应用,解析日志是非的消耗cpu和内存,logstash安装在应用部署的机器上显得非常的影响应用的性能。最常见的做法是用filebeat部署在应用的机器上,logstash单独部署,然后由 filebeat将日志输出给logstash解析,解析完由logstash再传给elasticsearch。

安装计划

本文主要讲解如何部署ElasticSearch 集群,部署的ElasticSearch的版本为7.2,计划用三台机器组成一个ElasticSearch集群,从而组成高可用,机器分配如下:

节点 规则 数量
192.168.1.1 2核4G 1
192.168.1.2 2核4G 1
192.168.1.3 2核4G 1

安装

下载安装执行以下命令:

# 下载elasticsearch-7.2.0-x86_64的rpm包
wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.2.0-x86_64.rpm
wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.2.0-x86_64.rpm.sha512
# shasum 检查版本信息
shasum -a 512 -c elasticsearch-7.2.0-x86_64.rpm.sha512
# rpm本地安装
sudo rpm --install elasticsearch-7.2.0-x86_64.rpm

安装成功ElasticSearch成功后,执行一下命令启动elasticSearch,并设置为开启自启动:

sudo systemctl daemon-reload
sudo systemctl enable elasticsearch.service
sudo systemctl start elasticsearch.service

elasticSearch的默认端口为9200,启动成功后,执行以下命令:

curl -X GET "localhost:9200/"

如果返回以下的信息,则证明安装成功:

{
  "name" : "VM_0_5_centos",
  "cluster_name" : "elasticsearch",
  "cluster_uuid" : "gst98AuET6a648YmAkXyMw",
  "version" : {
    "number" : "7.2.0",
    "build_flavor" : "default",
    "build_type" : "rpm",
    "build_hash" : "508c38a",
    "build_date" : "2019-06-20T15:54:18.811730Z",
    "build_snapshot" : false,
    "lucene_version" : "8.0.0",
    "minimum_wire_compatibility_version" : "6.8.0",
    "minimum_index_compatibility_version" : "6.0.0-beta1"
  },
  "tagline" : "You Know, for Search"
}

查看节点的健康状态,执行命令 curl localhost:9200/_cluster/health ,如果返回以下信息,则Elasticsearch则为监控状态。

{
  "cluster_name" : "elasticsearch",
  "status" : "green",
  "timed_out" : false,
  "number_of_nodes" : 1,
  "number_of_data_nodes" : 1,
  "active_primary_shards" : 0,
  "active_shards" : 0,
  "relocating_shards" : 0,
  "initializing_shards" : 0,
  "unassigned_shards" : 0,
  "delayed_unassigned_shards" : 0,
  "number_of_pending_tasks" : 0,
  "number_of_in_flight_fetch" : 0,
  "task_max_waiting_in_queue_millis" : 0,
  "active_shards_percent_as_number" : 100.0
}

可以执行以下的命令,查看es的 journal:

sudo journalctl --unit elasticsearch

配置

以下的路径的配置文件可以配置es的java_home,es_config_home :

/etc/sysconfig/elasticsearch

es本身的一些配置在以下的路径,在这里可以配置elasticsearch的堆内存,数据保留天数等信息:

/etc/elasticsearch

所有的配置文件描述和路径如下表所示:

配置类型 描述 路径
home elasticsearch的home目录 /usr/share/elasticsearch
bin elasticsearch的bin目录 /usr/share/elasticsearch/bin
conf elasticsearch的配置文件 /etc/elasticsearch
conf elasticsearch的环境变量配置 /etc/sysconfig/elasticsearch
data elasticsearch的数据目录 /var/lib/elasticsearch
logs elasticsearch的日志目录 /var/log/elasticsearch
plugins elasticsearch的插件目录 /usr/share/elasticsearch/plugins

集群搭建

在三台机器上分别装完elasticsearch,在主节点vim /etc/elasticsearch/,配置一下的信息:

主节点的配置如下:

#三个集群需要同样的集群名
cluster.name: my-application
# 每个node的名字需要唯一
node.name: node-1

node.master: true
#允许该节点存储数据(默认开启)
node.data: true
#注意一定要是路径后面加上/var/lib/elasticsearch/nodes,要不然无法加入集群
path.data: /var/lib/elasticsearch/nodes
path.logs: /var/log/elasticsearch
network.host: 0.0.0.0
http.port: 9200
transport.tcp.port: 9300
http.cors.enabled: true
http.cors.allow-origin: "*"
xpack.security.enabled: false
discovery.seed_hosts: ["192.168.1.1", "192.168.1.2", "192.168.1.3"]
cluster.initial_master_nodes: ["192.168.1.1", "192.168.1.2", "192.168.1.3"]

同理从节点的配置:

cluster.name: my-application
# 每个node的名字需要唯一,两个从节点的名字不能相同
node.name: node-2
node.master: true
#允许该节点存储数据(默认开启)
node.data: true
path.data: /var/lib/elasticsearch/nodes
path.logs: /var/log/elasticsearch
network.host: 0.0.0.0
http.port: 9200
transport.tcp.port: 9300
xpack.security.enabled: false
http.cors.enabled: true
http.cors.allow-origin: "*"
discovery.seed_hosts: ["192.168.1.1", "192.168.1.2", "192.168.1.3"]
cluster.initial_master_nodes: ["192.168.1.1", "192.168.1.2", "192.168.1.3"]

配置完主从节点,需要重启三台elasticsearch,重启命令如下:

sudo systemctl restart elasticsearch.service

重启三台Elasticsearch后,执行curl http://localhost:9200/_cat/master,如果响应如下,则证明安装成功

SHBUDVUAQhi7FauSoI8bMg 192.168.1.1 192.168.1.1 node-1

也路执行命令curl -XGET ‘http://127.0.0.1:9200/_cat/nodes?pretty’,返回类型如下的数据则安装成功:

192.168.1.2   9 97 1 0.00 0.03 0.05 mdi - node-2
192.168.1.3  97 0 0.01 0.07 0.07 mdi - node-3
192.168.1.1  18 97 2 0.05 0.05 0.05 mdi * node-1

也可以通过命令curl localhost:9200/_cluster/health?pretty,查看集群的健康状态:

{
  "cluster_name" : "my-application",
  "status" : "green",
  "timed_out" : false,
  "number_of_nodes" : 3,
  "number_of_data_nodes" : 3,
  "active_primary_shards" : 5,
  "active_shards" : 10,
  "relocating_shards" : 0,
  "initializing_shards" : 0,
  "unassigned_shards" : 0,
  "delayed_unassigned_shards" : 0,
  "number_of_pending_tasks" : 0,
  "number_of_in_flight_fetch" : 0,
  "task_max_waiting_in_queue_millis" : 0,
  "active_shards_percent_as_number" : 100.0
}

Elasticsearch中信息很多,同时ES也有很多信息查看命令,可以帮助开发者快速查询Elasticsearch的相关信息。

$ curl localhost:9200/_cat
=^.^=
/_cat/allocation
/_cat/shards
/_cat/shards/{index}
/_cat/master
/_cat/nodes
/_cat/indices
/_cat/indices/{index}
/_cat/segments
/_cat/segments/{index}
/_cat/count
/_cat/count/{index}
/_cat/recovery
/_cat/recovery/{index}
/_cat/health
/_cat/pending_tasks
/_cat/aliases
/_cat/aliases/{alias}
/_cat/thread_pool
/_cat/plugins
/_cat/fielddata
/_cat/fielddata/{fields}

head安装

在elasticsearch的高级版本之后,head不在是一个插件,而是一个独立的应用来部署,源码地址在https://github.com/mobz/elasticsearch-head。

需要提前安装node,安装命令如下:

git clone git://github.com/mobz/elasticsearch-head.git
cd elasticsearch-head
npm install
npm run start

安装成功后,打开 http://localhost:9100/,浏览器显示如下的界面,则安装成功:

322.png

如上图所示,在Head组件的界面上,可以很方便的查看集群的状态和数据。

参考资料

https://www.elastic.co/guide/en/elasticsearch/reference/7.2/rpm.html https://www.elastic.co/guide/index.html https://www.elastic.co/guide/en/elasticsearch/plugins/current/installation.html

本文为原创文章,转载请标明出处。
本文链接:http://blog.fangzhipeng.com/db/2019/08/01/es-intsall.html
本文出自方志朋的博客


(转载本站文章请注明作者和出处 方志朋-forezp

宝剑锋从磨砺出,梅花香自苦寒来,用心分享,一起成长,做有温度的攻城狮!
   

Post Directory