iis服务器助手广告广告
返回顶部
首页 > 资讯 > 精选 >SpringCloud中如何进行日志收集Kafka-ELK
  • 173
分享到

SpringCloud中如何进行日志收集Kafka-ELK

2023-06-19 09:06:43 173人浏览 泡泡鱼
摘要

本篇文章给大家分享的是有关SpringCloud中如何进行日志收集kafka-elk,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。微服务应用在容器化后,日志的查询就会变成困难的

本篇文章给大家分享的是有关SpringCloud中如何进行日志收集kafka-elk,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。

微服务应用在容器化后,日志的查询就会变成困难的问题,虽说有portainer这类的容器管理工具,能够方便的查询每个容器中的日志,但容器到达一定数量后,尤其是应用有多个实例时候,查询就成了头疼的问题。所以我们采用了Kafka-Logstash-elasticsearch-Kibana的方案来处理日志。

首先说说我的日志收集思路:

  1. 应用将日志传入kafka集群。在集群建立相应topic,并传入日志。

  2. logstash在kafka上消费(读取)日志内容,写入elasticsearch。

  3. kibana读elasticsearch,做对应的展示。

这样的好处,1)几乎不用做特别大的修改,只需做一定的配置工作即可完成日志收集;2)日志内容输入kafka几乎没有什么瓶颈,另外kafka的扩展性能很好,也很简单;3)收集的日志几乎是实时的;4)整体的扩展性很好,很容易消除瓶颈,例如elasticsearch分片、扩展都很容易。

应用侧配置

在应用中,我们只需配置log4j的相应配置,将其日志输出到kafka即可。以下为配置示例,配置中包含将日志输入出命令行和kafka部分中。注意,在输出到kafka中,需要有一个appender类kafka.producer.KafkaLog4jAppender一般是没有的,则我在本地自己写上该类(KafkaLog4jAppender.java),并加入相应的文件路径。

log4j.rootLogger=INFO,console,kafka# 输出到kafkalog4j.appender.kafka=com.yang.config.KafkaLog4jAppender  #kafka.producer.KafkaLog4jAppenderlog4j.appender.kafka.topic=api-adminlog4j.appender.kafka.brokerList=192.0.0.2:9092,192.0.0.3:9092,192.0.0.4:9092 # 这里填写kafka的iplog4j.appender.kafka.compressionType=nonelog4j.appender.kafka.syncSend=truelog4j.appender.kafka.layout=org.apache.log4j.PatternLayoutlog4j.appender.kafka.layout.ConversionPattern=%d{yyyy-MM-dd HH:mm:ss} %-5p %c{1}:%L %% - %m%n# 输出到Consolelog4j.appender.console=org.apache.log4j.ConsoleAppenderlog4j.appender.console.target=System.errlog4j.appender.console.layout=org.apache.log4j.PatternLayoutlog4j.appender.console.layout.ConversionPattern=%d (%t) [%p - %l] %m%n

KafkaLog4jAppender.java

public class KafkaLog4jAppender extends AppenderSkeleton {    private static final String BOOTSTRAP_SERVERS_CONFIG = ProducerConfig.BOOTSTRAP_SERVERS_CONFIG;    private static final String COMPRESSION_TYPE_CONFIG = ProducerConfig.COMPRESSION_TYPE_CONFIG;    private static final String ACKS_CONFIG = ProducerConfig.ACKS_CONFIG;    private static final String RETRIES_CONFIG = ProducerConfig.RETRIES_CONFIG;    private static final String KEY_SERIALIZER_CLASS_CONFIG = ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG;    private static final String VALUE_SERIALIZER_CLASS_CONFIG = ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG;    private static final String SECURITY_PROTOCOL = CommonClientConfigs.SECURITY_PROTOCOL_CONFIG;    private static final String SSL_TRUSTSTORE_LOCATION = SslConfigs.SSL_TRUSTSTORE_LOCATION_CONFIG;    private static final String SSL_TRUSTSTORE_PASSWord = SslConfigs.SSL_TRUSTSTORE_PASSWORD_CONFIG;    private static final String SSL_KEYSTORE_TYPE = SslConfigs.SSL_KEYSTORE_TYPE_CONFIG;    private static final String SSL_KEYSTORE_LOCATION = SslConfigs.SSL_KEYSTORE_LOCATION_CONFIG;    private static final String SSL_KEYSTORE_PASSWORD = SslConfigs.SSL_KEYSTORE_PASSWORD_CONFIG;    private String brokerList = null;    private String topic = null;    private String compressionType = null;    private String securityProtocol = null;    private String sslTruststoreLocation = null;    private String sslTruststorePassword = null;    private String sslKeystoreType = null;    private String sslKeystoreLocation = null;    private String sslKeystorePassword = null;    private int retries = 0;    private int requiredNuMacks = Integer.MAX_VALUE;    private boolean syncSend = false;    private Producer<byte[], byte[]> producer = null;    public Producer<byte[], byte[]> getProducer() {        return producer;    }    public String getBrokerList() {        return brokerList;    }    public void setBrokerList(String brokerList) {        this.brokerList = brokerList;    }    public int getRequiredNumAcks() {        return requiredNumAcks;    }    public void setRequiredNumAcks(int requiredNumAcks) {        this.requiredNumAcks = requiredNumAcks;    }    public int getRetries() {        return retries;    }    public void setRetries(int retries) {        this.retries = retries;    }    public String getCompressionType() {        return compressionType;    }    public void setCompressionType(String compressionType) {        this.compressionType = compressionType;    }    public String getTopic() {        return topic;    }    public void setTopic(String topic) {        this.topic = topic;    }    public boolean getSyncSend() {        return syncSend;    }    public void setSyncSend(boolean syncSend) {        this.syncSend = syncSend;    }    public String getSslTruststorePassword() {        return sslTruststorePassword;    }    public String getSslTruststoreLocation() {        return sslTruststoreLocation;    }    public String getSecurityProtocol() {        return securityProtocol;    }    public void setSecurityProtocol(String securityProtocol) {        this.securityProtocol = securityProtocol;    }    public void setSslTruststoreLocation(String sslTruststoreLocation) {        this.sslTruststoreLocation = sslTruststoreLocation;    }    public void setSslTruststorePassword(String sslTruststorePassword) {        this.sslTruststorePassword = sslTruststorePassword;    }    public void setSslKeystorePassword(String sslKeystorePassword) {        this.sslKeystorePassword = sslKeystorePassword;    }    public void setSslKeystoreType(String sslKeystoreType) {        this.sslKeystoreType = sslKeystoreType;    }    public void setSslKeystoreLocation(String sslKeystoreLocation) {        this.sslKeystoreLocation = sslKeystoreLocation;    }    public String getSslKeystoreLocation() {        return sslKeystoreLocation;    }    public String getSslKeystoreType() {        return sslKeystoreType;    }    public String getSslKeystorePassword() {        return sslKeystorePassword;    }    @Override    public void activateOptions() {        // check for config parameter validity        Properties props = new Properties();        if (brokerList != null)            props.put(BOOTSTRAP_SERVERS_CONFIG, brokerList);        if (props.isEmpty())            throw new ConfigException("The bootstrap servers property should be specified");        if (topic == null)            throw new ConfigException("Topic must be specified by the Kafka log4j appender");        if (compressionType != null)            props.put(COMPRESSION_TYPE_CONFIG, compressionType);        if (requiredNumAcks != Integer.MAX_VALUE)            props.put(ACKS_CONFIG, Integer.toString(requiredNumAcks));        if (retries > 0)            props.put(RETRIES_CONFIG, retries);        if (securityProtocol != null && sslTruststoreLocation != null &&                sslTruststorePassword != null) {            props.put(SECURITY_PROTOCOL, securityProtocol);            props.put(SSL_TRUSTSTORE_LOCATION, sslTruststoreLocation);            props.put(SSL_TRUSTSTORE_PASSWORD, sslTruststorePassword);            if (sslKeystoreType != null && sslKeystoreLocation != null &&                    sslKeystorePassword != null) {                props.put(SSL_KEYSTORE_TYPE, sslKeystoreType);                props.put(SSL_KEYSTORE_LOCATION, sslKeystoreLocation);                props.put(SSL_KEYSTORE_PASSWORD, sslKeystorePassword);            }        }        props.put(KEY_SERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.ByteArraySerializer");        props.put(VALUE_SERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.ByteArraySerializer");        this.producer = getKafkaProducer(props);        LogLog.debug("Kafka producer connected to " + brokerList);        LogLog.debug("Logging for topic: " + topic);    }    protected Producer<byte[], byte[]> getKafkaProducer(Properties props) {        return new KafkaProducer<byte[], byte[]>(props);    }    @Override    protected void append(LoggingEvent event) {        String message = subAppend(event);        LogLog.debug("[" + new Date(event.getTimeStamp()) + "]" + message);        Future<RecordMetadata> response = producer.send(new ProducerRecord<byte[], byte[]>(topic, message.getBytes()));        if (syncSend) {            try {                response.get();            } catch (InterruptedException ex) {                throw new RuntimeException(ex);            } catch (ExecutionException ex) {                throw new RuntimeException(ex);            }        }    }    private String subAppend(LoggingEvent event) {        return (this.layout == null) ? event.getRenderedMessage() : this.layout.fORMat(event);    }    public void close() {        if (!this.closed) {            this.closed = true;            producer.close();        }    }    public boolean requiresLayout() {        return true;    }}

logstash配置

logstash可能会有快速启动实例的需求,我们就采用Docker部署,能够快速启动、扩展等功能。

镜像就直接logstash官方镜像logstash docker镜像,我们选择了一种最简单启动方式做演示,具体还有多种docker部署方法,可以参考以上链接。

docker启动命令,input输入中,指定kafka集群地址和对应topic;输出,则是elasticsearch集群地址、索引,以及elastisearch配置参数。

#启动命令docker run -it -d logstash -e 'input { kafka { bootstrap_servers => "kafkaIp1:9092,kafkaIp2:9092" topics => ["api-admin"] } } output { elasticsearch { hosts => ["elasticsearch2:9200","elasticsearch3:9200","elasticsearch4:9200"] index => "api-admin-%{+YYYY.MM.dd}" flush_size => 20000 idle_flush_time => 10 template_overwrite => true } }'

在marathon中启动在Command选项中加入参数logstash -e 'input {} output {}'即可。另外说一句, 如果在容器编排系统(mesos/marathon、kubernetes)中,可能会有健康检查要求,其端口为9600。

以上就是springCloud中如何进行日志收集Kafka-ELK,小编相信有部分知识点可能是我们日常工作会见到或用到的。希望你能通过这篇文章学到更多知识。更多详情敬请关注编程网精选频道。

--结束END--

本文标题: SpringCloud中如何进行日志收集Kafka-ELK

本文链接: https://www.lsjlt.com/news/295328.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
  • SpringCloud中如何进行日志收集Kafka-ELK
    本篇文章给大家分享的是有关SpringCloud中如何进行日志收集Kafka-ELK,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。微服务应用在容器化后,日志的查询就会变成困难的...
    99+
    2023-06-19
  • ELK日志系统中如何进行通用应用程序日志接入
    这篇文章给大家介绍ELK日志系统中如何进行通用应用程序日志接入,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。日志规范规范的日志存放路径和输出格式将为我们后续的收集和分析带来极大的方便,无需考虑各种不同路径、格式的兼容问...
    99+
    2023-06-19
  • 如何进行Docker安装ELK并实现JSON格式日志
    本篇文章给大家分享的是有关如何进行Docker安装ELK并实现JSON格式日志,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。ELK是什么ELK是elastic公司提供的一套完整...
    99+
    2023-06-16
  • filebeat如何收集容器日志
    要使用Filebeat收集容器日志,首先需要安装和配置Filebeat。1. 安装Filebeat:根据操作系统的不同,可以从Ela...
    99+
    2023-10-11
    filebeat
  • 如何进行K8s日志采集最佳实践
    这篇文章将为大家详细讲解有关如何进行K8s日志采集最佳实践,文章内容质量较高,因此小编分享给大家做个参考,希望大家阅读完这篇文章后对相关知识有一定的了解。Kubernetes 日志采集难点在 Kubernetes 中,日志采集相比传统虚拟机...
    99+
    2023-06-04
  • SpringBoot3如何集成SLF4J+logback进行日志记录
    这篇文章主要为大家展示了“SpringBoot3如何集成SLF4J+logback进行日志记录”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“SpringBoot3如何集成SLF4J+logbac...
    99+
    2023-06-28
  • 如何使用Logstash收集PHP相关日志
    本篇内容介绍了“如何使用Logstash收集PHP相关日志”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!这...
    99+
    2024-04-02
  • Win10系统下如何收集蓝屏日志
    这篇文章将为大家详细讲解有关Win10系统下如何收集蓝屏日志,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。方法/步骤:确认电脑内存转储功能是否开启,按下Win+R打开运行窗口,输入“sysdm.cpl”命...
    99+
    2023-06-27
  • Flume如何收集日志到本地目录
    本篇内容主要讲解“Flume如何收集日志到本地目录”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“Flume如何收集日志到本地目录”吧!例子场景描述:   将tomcat的日志...
    99+
    2023-06-02
  • Springboot如何集成Kafka进行批量消费
    本篇内容主要讲解“Springboot如何集成Kafka进行批量消费”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“Springboot如何集成Kafka进行批量消费”吧!引入依赖<depe...
    99+
    2023-06-22
  • Linux系统中如何进行日志查看
    小编今天带大家了解Linux系统中如何进行日志查看,文中知识点介绍的非常详细。觉得有帮助的朋友可以跟着小编一起浏览文章的内容,希望能够帮助更多想解决这个问题的朋友找到问题的答案,下面跟着小编一起深入学习“Linux系统中如何进行日志查看”的...
    99+
    2023-06-28
  • FreeBSD中如何进行日志管理和分析
    FreeBSD上有许多工具和方法可以帮助您管理和分析日志文件。以下是一些常用的方法: 使用syslog:FreeBSD使用sys...
    99+
    2024-04-02
  • Go日志:如何在Spring项目中使用Git进行日志记录?
    日志记录是任何应用程序中必不可少的一部分,因为它可以帮助开发者定位并解决问题。在Go语言中,我们可以使用标准库中的log包来记录日志。但是,如果我们在一个Spring项目中使用Go语言进行开发,我们可能需要将日志记录到Git中,这样可以更...
    99+
    2023-08-05
    日志 spring git
  • Linux中logrotate如何进行日志文件管理
    Linux中logrotate如何进行日志文件管理,针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。系统中发生的各种有用的信息都会保留到日志文件中,在排查过程或者系统分析性能实...
    99+
    2023-06-28
  • Java项目如何进行日志管理?
    Java项目如何进行日志管理? 在Java项目开发中,日志管理是一个非常重要的环节。通过日志,我们可以了解程序的运行情况,排查问题,优化程序等等。那么,在Java项目中,如何进行日志管理呢?本文将为大家详细介绍Java项目的日志管理。 日...
    99+
    2023-09-04
    日志 javascript django
  • ASP和NumPy如何进行日志记录?
    日志记录是软件开发中非常重要的一环,它可以帮助开发者快速定位程序中出现的问题。在ASP和NumPy中,如何进行日志记录呢?本文将为您详细介绍。 ASP中的日志记录 在ASP中,可以使用内置的日志对象来进行日志记录。该对象名为“Server...
    99+
    2023-09-19
    numy 同步 日志
  • 如何在 Apache 日志中使用 NumPy 进行分析?
    Apache 日志是一种非常有用的数据源,可以用于分析网站的流量、用户行为等信息。NumPy 是 Python 中一个强大的数学库,可以用于数据分析、统计学和科学计算等领域。本文将介绍如何在 Apache 日志中使用 NumPy 进行分析。...
    99+
    2023-08-18
    numpy 日志 apache
  • Zabbix如何进行数据收集和监控
    Zabbix是一个开源的网络监控工具,通过Zabbix Agent和Zabbix Proxy,可以进行数据收集和监控。以下是Zabb...
    99+
    2024-03-11
    Zabbix
  • Python日志记录:如何在shell中进行调试?
    在Python编程中,调试是一个非常重要的步骤。调试可以帮助开发人员理解程序执行过程中的问题,并且可以帮助找到程序的错误。在Python中,日志记录是一个常见的调试技术。本文将介绍如何在shell中使用Python日志记录进行调试。 什么...
    99+
    2023-10-27
    path 日志 shell
  • 如何用一行Python进行数据收集探索
    本篇文章给大家分享的是有关如何用一行Python进行数据收集探索,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。简易的Pandas之路任何使用Python数据的人都会熟悉Pand...
    99+
    2023-06-02
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作