千家信息网

搭建ELK日志分析系统详解

发表于:2024-09-22 作者:千家信息网编辑
千家信息网最后更新 2024年09月22日,日志分析是我们运维解决系统故障、发现问题的主要手段。为了可以集中管理多台服务器的日志记录,开源实时日志分析ELK平台应用而生,ELK由Elasticsearch、Logstash和Kibana三个开源
千家信息网最后更新 2024年09月22日搭建ELK日志分析系统详解

日志分析是我们运维解决系统故障、发现问题的主要手段。为了可以集中管理多台服务器的日志记录,开源实时日志分析ELK平台应用而生,ELK由Elasticsearch、Logstash和Kibana三个开源工具组成,这三个工具可以分别部署在不同的服务器上,并且相互关联,不过需要收集哪台服务器的日志,就必须在该服务器上部署Logstash。ELK的官网是:https://www.elastic.co/cn/
.

ELK的工作原理如下(懂得其中原理,才可部署一个高可用的ELK平台):
Logstash收集APPServer(应用服务器)产生的log,并存放到Elasticsearch群集中,而Kibana则从Elasticsearch群集中查询数据生成图表,在返回给browser(浏览器)。简单来说,进行日志处理分析,一般需要以下几个步骤:

  • Logstash将日志进行集中化管理。
  • 将日志格式化(Logstash)并输出到Elasticsearch。
  • Elasticsearch对格式化后的数据进行索引和存储。
  • Kibana对前端数据的展示。

搭建ELK平台:

一、准备工作:

1、Node1、Node2节点内存最少分配4G,Apache节点无所谓。
2、下载所需软件包:https://pan.baidu.com/s/1aP7GDiRBdXzCZBbgiP1fAw
提取码:spuh
复制这段内容后打开百度网盘手机App,操作更方便哦三台服务器都要挂载我提供的.iso文件。
3、修改节点服务器名称,并通过本地/etc/hosts配置域名解析,检查Java环境,必须是Java 1.8或更高的版本
4、放行防火墙相关端口的流量,为了方便我直接关闭了防火墙。
5、所有服务器的时间最好同步,可以搭建时间同步服务器,也可手动同步。
node1节点配置:

[root@node1 /]# hostname                       # 修改主机名node1[root@node1 /]# vim /etc/hosts               # 配置解析文件,添加如下两行............................192.168.1.10    node1192.168.1.20    node2[root@node1 /]# java -version              # 检查Java环境openjdk version "1.8.0_102"OpenJDK Runtime Environment (build 1.8.0_102-b14)OpenJDK 64-Bit Server VM (build 25.102-b14, mixed mode)

node2节点配置(跟node1基本相似):

[root@node2 /]# hostname           # 修改主机名node2[root@node2 /]# vim /etc/hosts           # 编写解析配置文件..............................192.168.1.10    node1                  # 添加192.168.1.20    node2                  # 添加[root@node2 /]# java -version             # 检查Java环境openjdk version "1.8.0_102"OpenJDK Runtime Environment (build 1.8.0_102-b14)OpenJDK 64-Bit Server VM (build 25.102-b14, mixed mode)

二、安装Elasticsearch:
1、node1配置:

[root@node1 /]# mount /dev/sr0 /media/             # 挂载elk软件包[root@node1 /]# cd /media/[root@node1 media]# cp * /usr/src/            # 复制所有文件[root@node1 media]# cd /usr/src/[root@node1 src]# rpm -ivh elasticsearch-5.5.0.rpm           # 安装[root@node1 src]# systemctl daemon-reload [root@node1 src]# systemctl enable elasticsearch.service [root@node1 /]# vim /etc/elasticsearch/elasticsearch.yml   #修改主配置文件#修改如下,注意删除注释符号cluster.name: my-elk-cluster                #群集名字node.name: node1                              #节点名字path.data: /data/elk_data                     #数据存放路径path.logs: /var/log/elasticsearch/         #日志存放路径bootstrap.memory_lock: false             #在启动的时候不锁定内存network.host: 0.0.0.0                          #提供服务绑定的IP地址,0.0.0.0代表所有地址http.port: 9200                                      #侦听端口discovery.zen.ping.unicast.hosts: ["node1", "node2"]             #群集发现通过单播实现[root@node1 /]# mkdir -p /data/elk_data             #创建数据存放目录    [root@node1 /]# chown elasticsearch:elasticsearch            #更改属主及属组 /data/elk_data/[root@node1 /]# systemctl start elasticsearch.service            # qi'do启动服务[root@node1 /]# netstat -anpt | grep 9200        #端口号不会立马看到,启动服务后再等待十秒左右才可查看到     tcp6       0      0 :::9200                 :::*                    LISTEN      3992/java           

2、node2配置:

[root@node2 /]# mount /dev/sr0 /media/          # 挂载elk软件包[root@node2 /]# cd /media/[root@node2 media]# cp * /usr/src/[root@node2 /]# cd /usr/src/[root@node2 src]# rpm -ivh elasticsearch-5.5.0.rpm           # 安装[root@node2 src]# systemctl daemon-reload [root@node2 src]# systemctl enable elasticsearch.service [root@node2 /]# scp root@192.168.1.10:/etc/elasticsearch/elasticsearch.yml /etc/elasticsearch/               # 将node1配置文件复制过来The authenticity of host '192.168.1.10 (192.168.1.10)' can't be established.ECDSA key fingerprint is 68:df:0f:ac:c7:75:df:02:88:7d:36:6a:1a:ae:27:23.Are you sure you want to continue connecting (yes/no)? yesWarning: Permanently added '192.168.1.10' (ECDSA) to the list of known hosts.root@192.168.1.10's password:          # 输入密码elasticsearch.yml                                    100% 2853     2.8KB/s   00:00    [root@node2 /]# vim /etc/elasticsearch/elasticsearch.yml           #稍作修改node.name: node2                #就更改一下节点名称即可,其余不变[root@node2 /]# mkdir -p /data/elk_data                # 创建数据存放目录[root@node2 /]# chown elasticsearch:elasticsearch  /data/elk_data/               # 设置属主属组[root@node2 /]# systemctl start elasticsearch.service [root@node2 /]# netstat -anpt | grep 9200tcp6       0      0 :::9200                 :::*                    LISTEN      4074/java

3、查看节点信息:
node1:

node2:

访问http://192.168.1.10:9200/_cluster/health?pretty 查看群集的健康状态:

访问http://192.168.1.10:9200/_cluster/state?pretty 查看群集的状态信息:

通过以上方式查看群集状体对我们显示的并不友好,可以通过安装Elasticsearch-head插件,可以更方便的管理群集:
.
在node1安装Elasticsearch-head插件(需要提前安装node和phantomjs):

[root@node1 /]# cd /usr/src/[root@node1 src]# tar zxf node-v8.2.1.tar.gz             # 解压node源码包[root@node1 src]# cd node-v8.2.1/[root@node1 node-v8.2.1]# ./configure && make && make install #安装,时间较长,约需40分钟左右[root@node1 src]# tar jxf  phantomjs-2.1.1-linux-x86_64.tar.bz2 [root@node1 src]# cd phantomjs-2.1.1-linux-x86_64/bin/[root@node1 bin]# cp phantomjs /usr/local/bin/            #复制该文件到指定目录[root@node1 src]# tar zxf elasticsearch-head.tar.gz [root@node1 src]# cd elasticsearch-head/[root@node1 elasticsearch-head]# npm install             # 安装依赖包[root@node1 elasticsearch-head]# vim /etc/elasticsearch/elasticsearch.yml                 #编辑主配置文件,在任意位置添加如下两行:http.cors.enabled: true                #添加该行,开启跨域访问支持http.cors.allow-origin: "*"             #添加该行,跨域访问允许的域名地址[root@node1 elasticsearch-head]# systemctl restart elasticsearch.service               # 重启服务使配置生效[root@node1 elasticsearch-head]# npm run start &        #设置服务后台启动,如果前台启动,一旦关闭中断,服务也将关闭。#并且启动服务时,必须在解压后的elasticsearch-head下启动服务,#进程会读取该目录下的一个文件,否则可能启动失败。[root@node1 /]# netstat -anpt | grep 9100tcp        0      0 0.0.0.0:9100            0.0.0.0:*               LISTEN      49967/grunt         [root@node1 /]# netstat -anpt | grep 9200tcp6       0      0 :::9200                 :::*                    LISTEN      49874/java          

通过浏览器访问http://192.168.1.10:9100 来查看群集信息:

4、安装Kibana(可单独安装在一台服务器上,本人囊中羞涩、资源有限,所以安装在了node1上):

[root@node1 /]# cd /usr/src/[root@node1 src]# rpm -ivh kibana-5.5.1-x86_64.rpm [root@node1 src]# systemctl enable kibana.service [root@node1 src]# vim /etc/kibana/kibana.yml ........................              // 省略部分内容server.port: 5601          #Kibana打开的端口server.host: "0.0.0.0"               #Kibana侦听的地址,0.0.0.0代表该主机上的所有地址elasticsearch.url: "http://192.168.1.10:9200"                   #和Elasticsearch建立连接kibana.index: ".kibana"                      #在Elasticsearch中添加.kibana索引[root@node1 src]# systemctl start kibana.service 

5、配置apache服务器(自行搭建网站):

[root@Web ~]# systemctl start httpd         #启动httpd服务[root@Web ~]# java -version                  #检查Java环境是否为1.8openjdk version "1.8.0_102"OpenJDK Runtime Environment (build 1.8.0_102-b14)OpenJDK 64-Bit Server VM (build 25.102-b14, mixed mode)[root@Web ~]# mount /dev/cdrom /media           #挂载我提供的.iso文件mount: /dev/sr0 写保护,将以只读方式挂载[root@Web ~]# cd /media[root@Web media]# rpm -ivh logstash-5.5.1.rpm                #安装logstash[root@Web media]# systemctl daemon-reload  [root@Web media]# systemctl enable logstash.service         #设置开机自启动[root@Web media]# cd /etc/logstash/conf.d/               #切换至指定路径[root@Web conf.d]# vim apache_log.conf        #编辑采集apache日志文件和系统日志#以下就以系统日志为例做解释,其余的照着来就行,格式都差不多input {      file{        path => "/var/log/messages"             #指定要收集的日志文件  type => "system"  #指定类型为system,可以自定义,type值和output{ } 中的type对应即可        start_position => "beginning"       #从开始处收集        }      file{        path => "/etc/httpd/logs/access_log"        type => "access"        start_position => "beginning"         }       file{         path => "/etc/httpd/logs/error_log"        type => "error"        start_position => "beginning"          }       }output {        if [type] == "system" {           #如果type为system,           elasticsearch {                  #就输出到Elasticsearch服务器             hosts => ["192.168.1.10:9200"]               #Elasticsearch监听地址及端口             index => "system-%{+YYYY.MM.dd}"           #指定索引格式                }             }        if [type] == "access" {  elasticsearch {             hosts => ["192.168.1.10:9200"]             index => "apache_access-%{+YYYY.MM.dd}"               }             }         if [type] == "error" {          elasticsearch {             hosts => ["192.168.1.10:9200"]             index => "apache_error-%{+YYYY.MM.dd}"             }          }          } #写完保存退出即可。[root@Web ~]# chmod o+r /var/log/messages           #赋予该目录其他人的读权限        [root@Web conf.d]# ln -s /usr/share/logstash/bin/logstash /usr/local/bin/ #创建命令软连接[root@Web conf.d]# systemctl start logstash             #启动服务[root@Web conf.d]# logstash -f apache_log.conf &    #指定刚才编写文件为Logstash的配置文件,并且在后台运行

6、创建索引:
1、通过浏览器访问 http://192.168.1.10:9100 查看索引是否创建:

关于索引,有几个很重要的概念:

  • 索引:类似于关系数据库中的"库";
  • Type(编写Logstash时指定的type):类似于关系数据库中的"表";

刚才创建的索引,在我标记红框中,可以看到node1和node2对应的位置,都有绿色背景的0、1、2、3、4、5表示是该索引被分为了5个分片,其中因为在Logstash中指定的Elasticsearch服务器是node1,所以node1的分片是主分片,node2会自动同步node1的分片,node2的分片为备份分片,称为副本,用来提供数据冗余及负载分担。默认情况下,Elasticsearch自动对索引请求进行负载分担。

.
现在访问http://192.168.1.10:5601 登录到Kibana,添加索引:




关于apache的错误日志索引,自行添加即可,添加完毕后,单击"discover"即可,在下面的下拉列表选择一个索引,如apache_access-,可以查看相应的图表及日志信息:

服务 日志 文件 服务器 索引 配置 数据 节点 地址 目录 信息 格式 环境 端口 同步 检查 系统 分析 主机 平台 数据库的安全要保护哪些东西 数据库安全各自的含义是什么 生产安全数据库录入 数据库的安全性及管理 数据库安全策略包含哪些 海淀数据库安全审计系统 建立农村房屋安全信息数据库 易用的数据库客户端支持安全管理 连接数据库失败ssl安全错误 数据库的锁怎样保障安全 通图采集软件开发公司 网络安全和安全工程哪个好 服务器虚拟机需要什么配置 服务器目录安全性怎么设置 软件开发设计师证书 网络安全事故事件 计算机网络安全答题活动 巢湖bim软件开发工程 时序数据库有视图 长春市吉科网络技术有限公司 英特尔网络服务器怎么产生网络 数据库实用技术与应用 东莞精益软件开发 公众号软件开发方案多少钱 网络安全工程师证挂靠 软件开发临时缓存工具 常州软件开发公司有哪些东西 cs16混战服务器ip 衢州提供网络技术咨询热线 服务器管理添加功能灰色的 桌面数据库怎么设置的 网络安全要学什么大学专业 永信至诚网络安全签约 广西时代网络技术分类资费 软件开发服务合同 注意 xcode能写数据库吗 北京系来科网络技术有限公司 强化网络安全技防措施博客 癌症基因组图谱都有哪些数据库 饥荒专用服务器怎么设管理员
0