一、ELK应用场景

在复杂的企业应用服务群中,记录日志方式多种多样,并且不易归档以及提供日志监控的机制。无论是开发人员还是运维人员都无法准确的定位服务、服务器上面出现的种种问题,也没有高效搜索日志内容从而快速定位问题的方式。因此需要一个集中式、独立的、搜集管理各个服务和服务器上的日志信息,集中管理,并提供良好的UI界面进行数据展示,处理分析。
得此:ELK提供一套开源的解决方案,能高效、简便的满足以上场景。

二、ELK日志系统介绍

1、ELK分别是Elasticsearch、Logstash、Kibana三个开源框架缩写。

框架 简介 作用
Elasticsearch 开源分布式搜索引擎,提供存储、分析、搜索功能。特点:分布式、基于reasful风格、支持海量高并发的准实时搜索场景、稳定、可靠、快速、使用方便等。 接收搜集的海量结构化日志数据,并提供给kibana查询分析
Logstash 开源日志搜集、分析、过滤框架,支持多种数据输入输出方式。 用于收集日志,对日志进行过滤形成结构化数据,并转发到elasticsearch中
Kibana 开源日志报表系统,对elasticsearch以及logstash有良好的web页面支持。 对elasticsearch提供的数据进行分析展示

2、与Logstash的直接集成有两种方式:

2.1、Logstash与微服务应用安装在一起,监听日志文件

ES系列十七、logback ELK日志搭建 - 图1

2.2、Logstash独立部署,微服务节点通过网络向Logstash发送日志信息。

ES系列十七、logback ELK日志搭建 - 图2

3、间接集成(两种方式)

1、每个应用节点部署一个轻量级日志采集框架Beats,再由Beats对接统一的Logstash

由于Logstash消耗资源大,而服务器资源相当宝贵,所以引进另一个轻量级日志采集框架Beats,其中包含以下6种

Packetbeat 用于搜集网络流量数据
Heartbeat 用于运行时间监控
Filebeat 用于搜集文件数据
Winlogbeat 用于搜集winodws事件数据
Metricbeat 用于指标
Auditbeat 用于审计数据

ES系列十七、logback ELK日志搭建 - 图3

2、微服务将日志发送给Redis或者MQ,再由他们去对接Logstash(高并发场景)

由于logstash消耗性能,所以高并发场景容易遇到流量上的瓶颈,及时使用logstash集群也是如此,所以可以添加中间件进行日志缓存处理。由于logstash数据源具有多种方式,所有中间件也可以很多选择,常见的有kafka,redis。
ES系列十七、logback ELK日志搭建 - 图4

三、ELK搭建(非集群)

1、下载ELK(保持版本一致)

Elasticsearch 官网elasticsearch-6.3.1.tar elasticsearch官方文档
Kibana 官网kibana-6.3.1下载 linux64位 kibana官方文档
Logstash 官网logstash-6.3.1.tar logstash官方文档
Filebeat 官网filebeat-6.3.0 linux64位 beats官方文档

下面只介绍,方案2:Logstash独立部署,微服务节点通过网络向Logstash发送日志信息。

2、环境准备

1、jdk1.8
2、Elasticsearch安装参考:ES系列一、CentOS7安装ES 6.3.1
3、启动 Elasticsearch

3、安装Kibana

1、解压到安装目录即可

/home/kibana-6.3.1-linux-x86_64

2、修改配置文件

vi /home/kibana-6.3.1-linux-x86_64/config/kibana.yml
server.port: 5601 ##服务端口
server.host: “0.0.0.0” ##服务器ip 本机
elasticsearch.url: “http://localhost:9200“ ##elasticsearch服务地址 与elasticsearch对应

3、启动kibana

/home/kibana-6.3.0-linux-x86_64/bin/kibana #命令窗启动

4、关闭kibana

ps -ef | grep kibana #后台线程关闭
kill -9 4525 ##pid 4525 为查处线程的pid

5、验证kibana启动

ES系列十七、logback ELK日志搭建 - 图5

4、安装logstash

1、下载

  1. wget https://artifacts.elastic.co/downloads/logstash/logstash-6.3.1.tar.gz
  1. tar -zxvf logstash-6.3.1.tar.gz

2、创建配置文件logstash-es.conf

vim /home/logstash-6.3.1/conf.d/logstash-es.conf
复制一下内容:

  1. input {
  2. tcp {
  3. port => 10514
  4. codec => "json"
  5. }
  6. }
  7. output {
  8. elasticsearch {
  9. action => "index"
  10. hosts => ["localhost:9200"]
  11. index => "%{[appname]}"
  12. }
  13. }

10514:接受日志端口
hosts => [“localhost:9200”] :es的ip和端口
“%{[appname]}” :取值日志中appname值为索引

3、检测配置文件是否有错:

/home/logstash-6.3.1/bin/logstash —path.settings /home/logstash-6.3.1/config/ -f /home/logstash-6.3.1/config/conf.d/logstash-es.conf—config.test_and_exit
Sending Logstash’s logs to /var/log/logstash which is now configured via log4j2.properties
Configuration OK # 为ok则代表配置文件没有问题
[root@data-node1 /usr/share/logstash/bin]#
命令说明:

  • —path.settings 用于指定logstash的配置文件所在的目录
  • -f 指定需要被检测的配置文件的路径
  • —config.test_and_exit 指定检测完之后就退出,不然就会直接启动了

    4、指定配置文件,启动logstash:

    /home/logstash-6.3.1/bin/logstash —path.settings /home/logstash-6.3.1/config/ -f /home/logstash-6.3.1/config/conf.d/logstash-es.confSending Logstash’s logs to /var/log/logstash which is now configured via log4j2.properties
    # 这时终端会停留在这里,因为我们在配置文件中定义的是将信息输出到当前终端

    5、验证

    打开新终端检查一下10514端口是否已被监听:
    [root@data-node1 ~]# netstat -lntp |grep 10514
    tcp6 0 0 :::10514 :::* LISTEN 4312/java
    [root@data-node1 ~]#

    5、配置lockback

    1、maven

    1. <!--logback日志-->
    2. <dependency>
    3. <groupId>net.logstash.logback</groupId>
    4. <artifactId>logstash-logback-encoder</artifactId>
    5. <version>4.8</version>
    6. </dependency>

    2、logback.xml添加logstash配置

    1. <appender name="logstash" class="net.logstash.logback.appender.LogstashTcpSocketAppender">
    2. <param name="Encoding" value="UTF-8"/>
    3. <remoteHost>192.168.1.102</remoteHost>
    4. <port>10514</port>
    5. <!-- <filter class="com.program.interceptor.ELKFilter"/>-->//引入过滤类
    6. <!-- encoder is required -->
    7. <encoder charset="UTF-8" class="net.logstash.logback.encoder.LogstashEncoder" >
    8. <customFields>{"appname":"${appName}"}</customFields> // 索引名
    9. </encoder>
    10. </appender>
    logback.xml如下:
    1. <?xml version="1.0" encoding="UTF-8"?>
    2. <configuration scan="true">
    3. <contextName>MovieBooking</contextName>
    4. <timestamp key="TIMESTAMP" datePattern="yyyy-MM-dd" />
    5. <property name="LOGPATH" value="log" />
    6. <springProperty scope="context" name="appName" source="server.Name" defaultValue="localhost.log"/>
    7. <!-- 输出到控制台 -->
    8. <appender name="stdout" class="ch.qos.logback.core.ConsoleAppender">
    9. <layout class="ch.qos.logback.classic.PatternLayout">
    10. <pattern>
    11. %d{HH:mm:ss.SSS} [%thread] %-5level %logger{40} - %msg%n
    12. </pattern>
    13. </layout>
    14. </appender>
    15. <!-- 输出到文件 -->
    16. <appender name="fileLog"
    17. class="ch.qos.logback.core.rolling.RollingFileAppender">
    18. <file>${LOGPATH}${file.separator}${TIMESTAMP}.log</file>
    19. <append>true</append>
    20. <encoder>
    21. <pattern>
    22. %d{HH:mm:ss.SSS} [%thread] %-5level %logger{40} - %msg%n
    23. </pattern>
    24. </encoder>
    25. <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
    26. <fileNamePattern>${LOGPATH}${file.separator}all${file.separator}%d{yyyy-MM-dd}.log</fileNamePattern>
    27. <maxHistory>30</maxHistory>
    28. </rollingPolicy>
    29. <triggeringPolicy class="ch.qos.logback.core.rolling.SizeBasedTriggeringPolicy">
    30. <MaxFileSize>10MB</MaxFileSize>
    31. </triggeringPolicy>
    32. </appender>
    33. <appender name="logstash" class="net.logstash.logback.appender.LogstashTcpSocketAppender">
    34. <param name="Encoding" value="UTF-8"/>
    35. <remoteHost>192.168.1.102</remoteHost>
    36. <port>10514</port>
    37. <!-- <filter class="com.program.interceptor.ELKFilter"/>-->//引入过滤类
    38. <!-- encoder is required -->
    39. <encoder charset="UTF-8" class="net.logstash.logback.encoder.LogstashEncoder" >
    40. <customFields>{"appname":"${appName}"}</customFields>
    41. </encoder>
    42. </appender>
    43. <root level="INFO">
    44. <appender-ref ref="fileLog" />
    45. <appender-ref ref="stdout" />
    46. <appender-ref ref="logstash" />
    47. </root>
    48. </configuration>

    3、测试

    添加单元测试类:
    1. package com.example.demo;
    2. import com.example.service.StudentService;
    3. import lombok.extern.slf4j.Slf4j;
    4. import org.junit.Test;
    5. import org.junit.runner.RunWith;
    6. import org.springframework.beans.factory.annotation.Autowired;
    7. import org.springframework.boot.test.context.SpringBootTest;
    8. import org.springframework.test.context.junit4.SpringRunner;
    9. import org.springframework.test.context.web.WebAppConfiguration;
    10. @RunWith(SpringRunner.class)
    11. @SpringBootTest
    12. @Slf4j
    13. @WebAppConfiguration
    14. public class DemoApplicationTests {
    15. @Autowired
    16. private StudentService studentService;
    17. @Test
    18. public void Test() {
    19. log.info("测试日志{}","台风山竹,威力很大!");
    20. log.info(studentService.findAllStudent().get(0).toString());
    21. }
    22. }
    执行:
    ES系列十七、logback ELK日志搭建 - 图6

    4、验证

    ES系列十七、logback ELK日志搭建 - 图7