文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

如何配置Log日志

2024-04-02 19:55

关注

这篇文章主要讲解了“如何配置Log日志”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“如何配置Log日志”吧!

1.Slf4j

Slf4j 的全称是 Simple Loging Facade For Java,它仅仅是一个为 Java  程序提供日志输出的统一接口,并不是一个具体的日志实现方案,就比如 JDBC 一样,只是一种规则而已。

所以单独的 Slf4j 是不能工作的,必须搭配其他具体的日志实现方案,比如:

简单语法

SLF4J 不及 Log4J 使用普遍,因为许多开发者熟悉 Log4J 而不知道 SLF4J,或不关注 SLF4J 而坚持使用 Log4J。

我们先看下 Log4J 示例:

Logger.debug("Hello " + name);

由于字符串拼接的问题,使用以上语句会先拼接字符串,再根据当前级别是否低于 Debug  决定是否输出本条日志,即使不输出日志,字符串拼接操作也会执行。

所以许多公司强制使用下面的语句,这样只有当前处于 Debug 级别时才会执行字符串拼接:

if (logger.isDebugEnabled()) {   LOGGER.debug(“Hello ” + name); }

它避免了字符串拼接问题,但有点太繁琐了是不是?相对地,SLF4J 提供下面这样简单的语法:

LOGGER.debug("Hello {}", name);

它的形式类似第一条示例,而又没有字符串拼接问题,也不像第二条那样繁琐。

日志等级 Level

Slf4j 有四个级别的 log level 可供选择,级别从上到下由低到高,优先级高的将被打印出来:

使用

因为是强制规约,所以直接使用 LoggerFactory 创建:

import org.slf4j.Logger; import org.slf4j.LoggerFactory;  public class Test {     private static final Logger logger = LoggerFactory.getLogger(Test.class);     // …… }

配置方式

Spring Boot 对 Slf4j 支持的很好,内部已经集成了 Slf4j,一般我们在使用的时候,会对 Slf4j 做一下配置。

application.yml 文件是 Spring Boot 中唯一一个需要配置的文件,一开始创建工程的时候是  application.properties 文件,个人比较喜欢用 yml 文件,因为 yml 文件的层次感特别好,看起来更直观。

但是 yml 文件对格式要求比较高,比如英文冒号后面必须要有个空格,否则项目估计无法启动,而且也不报错。用 properties 还是 yml  视个人习惯而定,都可以。

我们看一下 application.yml 文件中对日志的配置:

logging:   config: classpath:logback.xml   level:     com.bowen.dao: trace

logging.config 是用来指定项目启动的时候,读取哪个配置文件,这里指定的是日志配置文件是 classpath:logback.xml  文件,关于日志的相关配置信息,都放在 logback.xml 文件中了。

logging.level 是用来指定具体的 mapper 中日志的输出级别,上面的配置表示 com.bowen.dao 包下的所有 mapper  日志输出级别为 trace,会将操作数据库的 sql 打印出来。

开发时设置成 trace 方便定位问题,在生产环境上,将这个日志级别再设置成 error 级别即可。

常用的日志级别按照从高到低依次为:ERROR、WARN、INFO、DEBUG。

2.Log4j

Log4j 是 Apache 的一个开源项目,通过使用 Log4j,我们可以控制日志信息输送的目的地是控制台、文件、GUI 组件,甚至是套接口服务器、NT  的事件记录器、UNIX Syslog 守护进程等。

我们也可以控制每一条日志的输出格式;通过定义每条日志信息的级别,我们能够更加细致地控制日志的生成过程。

组成架构

Log4j 由三个重要的组成构成:

Log4j 中将要输出的 Log 信息定义了 5 种级别,依次为 DEBUG、INFO、WARN、ERROR 和 FATAL。

当输出时,只有级别高过配置中规定的级别的信息才能真正的输出,这样就很方便的来配置不同情况下要输出的内容,而不需要更改代码。

日志等级 Level

Log4j 日志等级主要有以下几种:

在 Logger 核心类中, 除了 off/all 以外,  其他每个日志等级都对应一组重载的方法,用于记录不同等级的日志。当且仅当方法对应的日志等级大于等于设置的日志等级时,日志才会被记录。

使用

使用 Log4j 只需要导入一个 jar 包:

<dependency>  <groupId>org.log4j</groupId>    <artifactId>log4j</artifactId>    <version>1.2.9</version> </dependency>e

配置方式

在 Resources Root 目录下创建一个 log4j.properties 配置文件,一定要注意:文件的位置和文件名一个都不能错,然后在  properties 文件中添加配置信息。

log4j.rootLogger=debug,cons  log4j.appender.cons=org.apache.log4j.ConsoleAppender  log4j.appender.cons.target=System.out   log4j.appender.cons.layout=org.apache.log4j.PatternLayout  log4j.appender.cons.layout.ConversionPattern=%m%n

propertis 文件是最常用的配置方式。实际开发过程中,基本都是使用properties 文件。

pripertis 配置文件的配置方式为:

# 配置日志等级, 指定生效的Appender名字, AppenderA是定义的Appender的名字 log4j.rootLogger=日志等级,AppenderA,AppenderB,...  # ---------------- 定义一个appender------------------------ # 定义一个appender, appender名字可以是任意的,  # 如果要使该appender生效, 须加入到上一行rootLogger中, 后面为对应的Appender类 log4j.appender.appender名字=org.apache.log4j.ConsoleAppender  log4j.appender.appender名字.target=System.out   # 定义Appender的布局方式 log4j.appender.appender名字.layout=org.apache.log4j.SimpleLayout

3.Logback

简单地说,Logback 是一个 Java 领域的日志框架。它被认为是 Log4J 的继承人。Logback 是 Log4j 的升级,所以 Logback  自然比 Log4j 有很多优秀的地方。

模块组成

Logback 主要由三个模块组成:

logback-core 是其它模块的基础设施,其它模块基于它构建,显然,logback-core 提供了一些关键的通用机制。

logback-classic 的地位和作用等同于 Log4J,它也被认为是 Log4J 的一个改进版,并且它实现了简单日志门面 SLF4J。

logback-access 主要作为一个与 Servlet 容器交互的模块,比如说 Tomcat 或者 Jetty,提供一些与 HTTP  访问相关的功能。

如何配置Log日志

三个模块

Logback 组件

Logback 主要组件如下:

Logback 优点

Logback 主要优点如下:

标签属性

如何配置Log日志


配置结构

配置方式

logback 框架会默认加载 classpath 下命名为 logback-spring 或 logback 的配置文件:

<?xml version="1.0" encoding="utf-8"?> <configuration>     <property resource="logback.properties"/>     <appender name="CONSOLE-LOG" class="ch.qos.logback.core.ConsoleAppender">         <layout class="ch.qos.logback.classic.PatternLayout">             <pattern>[%d{yyyy-MM-dd' 'HH:mm:ss.sss}] [%C] [%t] [%L] [%-5p] %m%n</pattern>         </layout>     </appender>     <!--获取比info级别高(包括info级别)但除error级别的日志-->     <appender name="INFO-LOG" class="ch.qos.logback.core.rolling.RollingFileAppender">         <filter class="ch.qos.logback.classic.filter.LevelFilter">             <level>ERROR</level>             <onMatch>DENY</onMatch>             <onMismatch>ACCEPT</onMismatch>         </filter>         <encoder>             <pattern>[%d{yyyy-MM-dd' 'HH:mm:ss.sss}] [%C] [%t] [%L] [%-5p] %m%n</pattern>         </encoder>          <!--滚动策略-->         <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">             <!--路径-->             <fileNamePattern>${LOG_INFO_HOME}//%d.log</fileNamePattern>             <maxHistory>30</maxHistory>         </rollingPolicy>     </appender>     <appender name="ERROR-LOG" class="ch.qos.logback.core.rolling.RollingFileAppender">         <filter class="ch.qos.logback.classic.filter.ThresholdFilter">             <level>ERROR</level>         </filter>         <encoder>             <pattern>[%d{yyyy-MM-dd' 'HH:mm:ss.sss}] [%C] [%t] [%L] [%-5p] %m%n</pattern>         </encoder>         <!--滚动策略-->         <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">             <!--路径-->             <fileNamePattern>${LOG_ERROR_HOME}//%d.log</fileNamePattern>             <maxHistory>30</maxHistory>         </rollingPolicy>     </appender>      <root level="info">         <appender-ref ref="CONSOLE-LOG" />         <appender-ref ref="INFO-LOG" />         <appender-ref ref="ERROR-LOG" />     </root> </configuration>

4.ELK

ELK 是软件集合 Elasticsearch、Logstash、Kibana 的简称,由这三个软件及其相关的组件可以打造大规模日志实时处理系统。

新增了一个 FileBeat,它是一个轻量级的日志收集处理工具(Agent),Filebeat 占用资源少,适合于在各个服务器上搜集日志后传输给  Logstash,官方也推荐此工具。

如何配置Log日志

架构图

Elasticsearch:是一个基于 Lucene 的、支持全文索引的分布式存储和索引引擎,主要负责将日志索引并存储起来,方便业务方检索查询。

Logstash:是一个日志收集、过滤、转发的中间件,主要负责将各条业务线的各类日志统一收集、过滤后,转发给 Elasticsearch  进行下一步处理。

Kibana:是一个可视化工具,主要负责查询 Elasticsearch 的数据并以可视化的方式展现给业务方,比如各类饼图、直方图、区域图等。

Filebeat:隶属于 Beats,是一个轻量级的日志收集处理工具。

目前 Beats 包含四种工具:Packetbeat(搜集网络流量数据)、Topbeat(搜集系统、进程和文件系统级别的 CPU  和内存使用情况等数据)、Filebeat(搜集文件数据)、Winlogbeat(搜集 Windows 事件日志数据)。

主要特点

一个完整的集中式日志系统,需要包含以下几个主要特点:

ELK提供了一整套解决方案,并且都是开源软件,之间互相配合使用,完美衔接,高效的满足了很多场合的应用。目前主流的一种日志系统。

应用场景

在海量日志系统的运维中,以下几个方面是必不可少的:

ELK  运行于分布式系统之上,通过搜集、过滤、传输、储存,对海量系统和组件日志进行集中管理和准实时搜索、分析,使用搜索、监控、事件消息和报表等简单易用的功能。

帮助运维人员进行线上业务的准实时监控、业务异常时及时定位原因、排除故障、程序研发时跟踪分析  Bug、业务趋势分析、安全与合规审计,深度挖掘日志的大数据价值。

同时 Elasticsearch 提供多种 API(REST JAVA PYTHON 等 API)供用户扩展开发,以满足其不同需求。

配置方式

filebeat 的配置,打开 filebeat.yml,进行配置,如下:

#输入源,可以写多个 filebeat.input: - type: log   enabled: true   #输入源文件地址   path:     - /data/logs/tomcat/*.log   #多行正则匹配,匹配规则 例:2020-09-29,不是这样的就与上一条信息合并   multiline:     pattern: '\s*\['     negate: true     match: after   #起个名字   tags: ["tomcat"]  #输出目标,可以把logstash改成es output.logstash:   hosts: [172.29.12.35:5044]

logstash 的配置,建一个以 .conf 为后缀的文件,或者打开 config 文件夹下的 .conf  文件,这里的配置文件是可以同时启动多个的,而且还有一个功能强大的 filter 功能,可以过滤原始数据,如下:

#输入源(必须) input {  #控制台键入  stdin {}  #文件读取  file {   #类似赋予的名字   type => "info"   #文件路径,可以用*代表所有   path => ['/usr/local/logstash-7.9.1/config/data-my.log']   #第一次从头开始读,下一次继续上一次的位置继续读   start_position => "beginning"  }  file {   type => "error"   path => ['/usr/local/logstash-7.9.1/config/data-my2.log']   start_position => "beginning"   codec=>multiline{    pattern => "\s*\["    negate => true    what => "previous"   }  }  #与filebates配合使用  beats{   port => 5044  } } #输出目标(必须) output {  #判断type是否相同  if [type] == "error"{   #如果是,就写入此es中   elasticsearch{    hosts => "172.29.12.35:9200"    #kibana通过index的名字进行查询,这里的YYYY是动态获取日期    index => "log-error-%{+YYYY.MM.dd}"   }  }  if [type] == "info"{   elasticsearch{    hosts => "172.29.12.35:9200"    #kibana通过index的名字进行查询    index => "log-info-%{+YYYY.MM.dd}"   }  }  #这里判断的是filebates中赋予的tags是否是tomcat  if "tomcat" in [tags]{   elasticsearch{    hosts => "172.29.12.35:9200"    #kibana通过index的名字进行查询    index => "tomcat"   }  }  #控制台也会打印信息  stdout {   codec => rubydebug {}  } }

感谢各位的阅读,以上就是“如何配置Log日志”的内容了,经过本文的学习后,相信大家对如何配置Log日志这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是编程网,小编将为大家推送更多相关知识点的文章,欢迎关注!

阅读原文内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 历年真题答案解析
  • 备考技巧名师总结
  • 高频考点精准押题
  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     807人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     351人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     314人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     433人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     221人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-前端开发
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯