spring cloud 家族算是国内比较常见的微服务解决方案了。其中的日志部分也是有相关的组件做支撑。
默认情况下,如果仅仅是简单的开发,或者说只是利用微服务的服务拆分,不去使用多实例负载,且在服务拆分中链路深度低于3层,那么在很大程度上,人工还是能直接通过log日志快速定位问题。
目前由于服务越来越多,且链路也越发复杂,已经不是之前的少量服务的情况。故还是需要将全家桶的方案拿出来使用。
Spring Cloud Sleuth
基本机制为: 在http请求中添加相关参数,大致为:server-name,main-traceid,subspanid。
server-name: 用于标注用的那个微服务。
traceid: 一个前端请求仅此一个id,整个请求唯一。
spanid: 请求的链路中,每个服务拥有一个唯一id。
过程中为了串联起来,还有辅助信息:
parentSpanID: 链路中上个服务的spanid.
ELK
日志收集查询神器elk套装,也是比较稳定的方案了。
主要解决日志量大存储问题,以及后方面运维、开发能方便的查询相关的日志。而不是在shell中费力的寻找。
初定方案
使用 spring cloud sleuth 进行链路线管信息记录,通过logback+logstash将日志输出并存储到es中,最后使用kinbana进行日志查询。
至于zipkin 目前暂时用不上,当下最大问题还是找出错误。
配置使用
首先引入sleuth。
<dependency> <groupId>org.springframework.cloud</groupId> <artifactId>spring-cloud-starter-sleuth</artifactId> </dependency>
然后加入logstash-logback。
<dependency> <groupId>net.logstash.logback</groupId> <artifactId>logstash-logback-encoder</artifactId> <version>4.6</version> </dependency>
logback-spring.xml 配置文件:
<?xml version="1.0" encoding="UTF-8"?> <!--该日志将日志级别不同的log信息保存到不同的文件中 --> <configuration> <include resource="org/springframework/boot/logging/logback/defaults.xml" /> <springProperty scope="context" name="springAppName" source="spring.application.name" /> <!-- 日志在工程中的输出位置 --> <property name="LOG_FILE" value="${BUILD_FOLDER:-build}/${springAppName}" /> <!-- 控制台的日志输出样式 --> <property name="CONSOLE_LOG_PATTERN" value="%clr(%d{yyyy-MM-dd HH:mm:ss.SSS}){faint} %clr(${LOG_LEVEL_PATTERN:-%5p}) %clr(${PID:- }){magenta} %clr(---){faint} %clr([%15.15t]){faint} %m%n${LOG_EXCEPTION_CONVERSION_WORD:-%wEx}}" /> <!-- 控制台输出 --> <appender name="console" class="ch.qos.logback.core.ConsoleAppender"> <filter class="ch.qos.logback.classic.filter.ThresholdFilter"> <level>INFO</level> </filter> <!-- 日志输出编码 --> <encoder> <pattern>${CONSOLE_LOG_PATTERN}</pattern> <charset>utf8</charset> </encoder> </appender> <!-- 为logstash输出的JSON格式的Appender --> <appender name="logstash" class="net.logstash.logback.appender.LogstashTcpSocketAppender"> <destination>127.0.0.1:9250</destination> <!-- 日志输出编码 --> <encoder class="net.logstash.logback.encoder.LoggingEventCompositeJsonEncoder"> <providers> <timestamp> <timeZone>UTC</timeZone> </timestamp> <pattern> <pattern> { "severity": "%level", "service": "${springAppName:-}", "trace": "%X{X-B3-TraceId:-}", "span": "%X{X-B3-SpanId:-}", "exportable": "%X{X-Span-Export:-}", "pid": "${PID:-}", "thread": "%thread", "class": "%logger{40}", "rest": "%message" } </pattern> </pattern> </providers> </encoder> </appender> <!-- 日志输出级别 --> <root level="INFO"> <appender-ref ref="console" /> <appender-ref ref="logstash" /> </root> </configuration>
其中logstash>destination 为指定的logstash通道。
注意:需要安装logstash-codec-json_lines插件。
logstash-plugin install logstash-codec-json_lines
logstash.conf
input { tcp { port => 9250 codec => "json_lines" } } output { elasticsearch { hosts => ["http://localhost:9200"] index => "ms-%{+YYYY.MM.dd}" } }
最后启动elk,启动微服务即可。