Spring Cloud Alibaba 系列之 Sleuth(链路追踪)
Spring Cloud Alibaba 系列之 Sleuth(链路追踪)
一、前言
在大型系统的分布式系统中,系统会被拆分成了许多模块。这些模块负责不同的功能,组合成系统,最终可以提供丰富的功能。
在这种架构中,一次请求往往需要涉及到多个服务。互联网应用构建在不同的软件模块集上,这些软件模块,有可能是由不同的团队开发、可能使用不同的编程语言来实现、有可能布在了几千台服务器,横跨多个不同的数据中心,也就意味着这种架构形式也会存在一些问题:
- 如何快速发现问题?
- 如何判断故障影响范围?
- 如何梳理服务依赖以及依赖的合理性?
- 如何分析链路性能问题以及实时容量规划?
针对上边的问题,网上大牛已给出解决思路:分布式链路追踪(Distributed Tracing)。
分布式链路追踪(Distributed Tracing) 是将一次分布式请求还原成调用链路,进行日志记录,性能监控并将一次分布式请求的调用情况集中展示。
其落地方案有多种,我们采用 Spring Cloud 封装好的 Sleuth + Zinkin。由于 Spring Cloud Alibaba 技术栈中并没有提供自己的链路追踪技术的,我们可以借助这两套组件来实现链路追踪解决方案。
二、Sleuth 介绍
2.1 基础概念
Spring Cloud Sleuth 大量借用了 Google Dapper 的设计, 先来了解一下 Sleuth 中的术语和相关概念:
- Span:代表了一组基本的工作单元。为了统计各处理单元的延迟,当请求到达各个服务组件的时候,也通过一个唯一标识(SpanId)来标记它的开始、具体过程和结束。通过SpanId 的开始和结束时间戳,就能统计该 span 的调用时间,除此之外,我们还可以获取如事件的名称。
- Trace:由一组 Trace Id 相同的 Span 串联形成一个树状结构。为了实现请求跟踪,当请求到达分布式系统的入口端点时,只需要服务跟踪框架为该请求创建一个唯一的标识(即TraceId),同时在分布式系统内部流转的时候,框架始终保持传递该唯一值,直到整个请求的返回。那么我们就可以使用该唯一标识将所有的请求串联起来,形成一条完整的请求链路。
- Annotation:用它记录一段时间内的事件,内部使用的重要注释。
cs(Client Send)客户端发出请求,开始一个请求的生命
sr(Server Received)服务端接受到请求开始进行处理, sr- cs = 网络延迟(服务调用的时间)
ss(Server Send)服务端处理完毕准备发送到客户端, ss - sr = 服务器上的请求处理时间
cr(Client Reveived)客户端接受到服务端的响应,请求结束。 cr - sr = 请求的总时间
复制
2.2 Sleuth 实战演练
首先介绍一下测试的项目结构:
项目名称 | 端口 | 描述 |
---|---|---|
trace-test | - | pom 项目,父工厂 |
trace-common | - | jar 项目,通用 api 项目,包含 model,feign,sleuth |
user-service | 9001 | 用户微服务,依赖 trace-common,服务注册到 nacos |
order-service | 9002 | 订单微服务,依赖 trace-common,服务注册到 nacos |
gateway-service | 9090 | 网关微服务,服务注册到 nacos |
对网关不清楚的读者可以先打开 传送门 浏览相关内容。
测试流程:请求订单接口返回订单信息和订单关联的用户信息。其调用链:gateway-service
-> order-service
-> user-service
。
其中,订单微服务使用 open feign 组件调用用户微服务。为了简化文章内容,笔者只张贴部分代码:
@RestController
@RequestMapping("/order")
public class OrderController {
@Autowired
private UserServiceFeign userServiceFeign;
private static Map<Integer, Order> orderMap;
static {
orderMap = new HashMap<>();
orderMap.put(1, new Order(1, 1, 10.0));
orderMap.put(2, new Order(2, 2, 20.0));
orderMap.put(3, new Order(3, 3, 30.0));
}
@RequestMapping("/getOrderInfo/{orderId}")
public Map<String, Object> getOrderInfo(@PathVariable Integer orderId) {
Map<String, Object> result = new HashMap<>();
// 模拟数据库查询
Order order = this.orderMap.get(orderId);
if (order != null) {
Integer userId = order.getUserId();
User user = this.userServiceFeign.findById(userId);
// 订单信息
result.put("order", order);
// 用户信息
result.put("user", user);
}
return result;
}
}
复制
为了能获取调用链的信息,我们需要加入 Sleuth 依赖,在 trace-common 项目中引入:
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-starter-sleuth</artifactId>
</dependency>
复制
将用户、订单、网关微服务依次启动,请求订单接口: http://localhost:9090/order-api/order/getOrderInfo/1 。
请求结果成功后,在订单微服务的控制台可以看到调用链日志:
其中,[] 括住的内容分别表示“微服务名称”, “traceId”, “spanid”, “是否将链路的追踪结果输出到第三方平台”。
当然,我们可以把这些信息打印到日志文件中,但查看日志文件并不是一个很好的方法。当微服务越来越多日志文件也会越来越多,不利于我们排查。这时,我们需要通过 Zipkin 可以将日志聚合,并进行可视化展示和全文检索。
三、Zinkin 介绍
3.1 基础介绍
Zipkin 是 Twitter 的一个开源项目,它基于 Google Dapper 实现,它致力于收集服务的定时数据,以解决微服务架构中的延迟问题,包括数据的收集、存储、查找和展现。
我们可以使用它来收集各个服务器上请求链路的跟踪数据,并通过它提供的 REST API 接口来辅助我们查询跟踪数据以实现对分布式系统的监控程序,从而及时地发现系统中出现的延迟升高问题并找出系统性能瓶颈的根源。
3.2 架构介绍
上图展示了 Zipkin 的基础架构,它主要由 4 个核心组件构成:
- Collector:收集器组件,它主要用于处理从外部系统发送过来的跟踪信息,将这些信息转换为 Zipkin 内部处理的 Span 格式,以支持后续的存储、分析、展示等功能。
- Storage:存储组件,它主要对处理收集器接收到的跟踪信息,默认会将这些信息存储在内存中,我们也可以修改此存储策略,通过使用其他存储组件将跟踪信息存储到数据库中。
- RESTful API:API 组件,它主要用来提供外部访问接口。比如给客户端展示跟踪信息,或是外接系统访问以实现监控等。
- Web UI:UI 组件,基于API组件实现的上层应用。通过UI组件用户可以方便而有直观地查询和分析跟踪信息。
大体上,Zipkin 分为两端,一个是 Zipkin 服务端,一个是 Zipkin 客户端(微服务项目) 客户端会配置服务端的 URL 地址,一旦发生服务间的调用的时候,会被配置在微服务里面的 Sleuth 的监听器监听,并生成相应的 Trace 和 Span 信息发送给服务端。
3.3 Zipkin 实战演练
- 下载 Zipkin:
https://search.maven.org/remote_content?g=io.zipkin&a=zipkin-server&v=LATEST&c=exec
复制
- 启动 Zipkin 服务
java -jar zipkin-server-2.23.2-exec.jar
复制
- 用户、订单和网关微服务都添加 Zipkin 客户端依赖:
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-starter-zipkin</artifactId>
</dependency>
复制
- 用户、订单和网关微服务都修改配置:
spring:
zipkin:
base-url: http://127.0.0.1:9411/ # 连接 zipkin 服务端的地址,接口被调用后,调用相关信息通过这个 url 发送到 zipkin 服务端
discovery-client-enabled: false
sleuth:
sampler:
probability: 1.0
复制
依次启动用户、订单和网关微服务。请求订单接口:请求订单接口: http://localhost:9090/order-api/order/getOrderInfo/1 。
我们访问 Zipkin 的监控页面: http://127.0.0.1:9411/ ,如下图:
刚才调用接口的调用链都被记录下来了,点击 “show” 还能查看详情。
3.4 数据持久化
Zipkin 服务端默认会将追踪数据信息保存到内存,但这种方式不适合生产环境。 幸运的是,它支持将追踪数据持久化到 MySQL 数据库或 Elasticsearch 中。
笔者 MySQL 为例进行演示,如果想了解其他持久化方式可以点击文末提供的参考资料查阅。
- 创建名为 zipkin 的库,在库中执行如下 sql:
CREATE TABLE IF NOT EXISTS zipkin_spans (
`trace_id_high` BIGINT NOT NULL DEFAULT 0 COMMENT 'If non zero, this means the trace uses 128 bit traceIds instead of 64 bit',
`trace_id` BIGINT NOT NULL,
`id` BIGINT NOT NULL,
`name` VARCHAR(255) NOT NULL,
`remote_service_name` VARCHAR(255),
`parent_id` BIGINT,
`debug` BIT(1),
`start_ts` BIGINT COMMENT 'Span.timestamp(): epoch micros used for endTs query and to implement TTL',
`duration` BIGINT COMMENT 'Span.duration(): micros used for minDuration and maxDuration query',
PRIMARY KEY (`trace_id_high`, `trace_id`, `id`)
) ENGINE=InnoDB ROW_FORMAT=COMPRESSED CHARACTER SET=utf8 COLLATE utf8_general_ci;
ALTER TABLE zipkin_spans ADD INDEX(`trace_id_high`, `trace_id`) COMMENT 'for getTracesByIds';
ALTER TABLE zipkin_spans ADD INDEX(`name`) COMMENT 'for getTraces and getSpanNames';
ALTER TABLE zipkin_spans ADD INDEX(`remote_service_name`) COMMENT 'for getTraces and getRemoteServiceNames';
ALTER TABLE zipkin_spans ADD INDEX(`start_ts`) COMMENT 'for getTraces ordering and range';
CREATE TABLE IF NOT EXISTS zipkin_annotations (
`trace_id_high` BIGINT NOT NULL DEFAULT 0 COMMENT 'If non zero, this means the trace uses 128 bit traceIds instead of 64 bit',
`trace_id` BIGINT NOT NULL COMMENT 'coincides with zipkin_spans.trace_id',
`span_id` BIGINT NOT NULL COMMENT 'coincides with zipkin_spans.id',
`a_key` VARCHAR(255) NOT NULL COMMENT 'BinaryAnnotation.key or Annotation.value if type == -1',
`a_value` BLOB COMMENT 'BinaryAnnotation.value(), which must be smaller than 64KB',
`a_type` INT NOT NULL COMMENT 'BinaryAnnotation.type() or -1 if Annotation',
`a_timestamp` BIGINT COMMENT 'Used to implement TTL; Annotation.timestamp or zipkin_spans.timestamp',
`endpoint_ipv4` INT COMMENT 'Null when Binary/Annotation.endpoint is null',
`endpoint_ipv6` BINARY(16) COMMENT 'Null when Binary/Annotation.endpoint is null, or no IPv6 address',
`endpoint_port` SMALLINT COMMENT 'Null when Binary/Annotation.endpoint is null',
`endpoint_service_name` VARCHAR(255) COMMENT 'Null when Binary/Annotation.endpoint is null'
) ENGINE=InnoDB ROW_FORMAT=COMPRESSED CHARACTER SET=utf8 COLLATE utf8_general_ci;
ALTER TABLE zipkin_annotations ADD UNIQUE KEY(`trace_id_high`, `trace_id`, `span_id`, `a_key`, `a_timestamp`) COMMENT 'Ignore insert on duplicate';
ALTER TABLE zipkin_annotations ADD INDEX(`trace_id_high`, `trace_id`, `span_id`) COMMENT 'for joining with zipkin_spans';
ALTER TABLE zipkin_annotations ADD INDEX(`trace_id_high`, `trace_id`) COMMENT 'for getTraces/ByIds';
ALTER TABLE zipkin_annotations ADD INDEX(`endpoint_service_name`) COMMENT 'for getTraces and getServiceNames';
ALTER TABLE zipkin_annotations ADD INDEX(`a_type`) COMMENT 'for getTraces and autocomplete values';
ALTER TABLE zipkin_annotations ADD INDEX(`a_key`) COMMENT 'for getTraces and autocomplete values';
ALTER TABLE zipkin_annotations ADD INDEX(`trace_id`, `span_id`, `a_key`) COMMENT 'for dependencies job';
CREATE TABLE IF NOT EXISTS zipkin_dependencies (
`day` DATE NOT NULL,
`parent` VARCHAR(255) NOT NULL,
`child` VARCHAR(255) NOT NULL,
`call_count` BIGINT,
`error_count` BIGINT,
PRIMARY KEY (`day`, `parent`, `child`)
) ENGINE=InnoDB ROW_FORMAT=COMPRESSED CHARACTER SET=utf8 COLLATE utf8_general_ci;
复制
- 重新启动 zipkin 服务,需要添加 MySQL 连接参数:
java -jar zipkin-server-2.23.2-exec.jar --STORAGE_TYPE=mysql --MYSQL_HOST=127.0.0.1 --MYSQL_TCP_PORT=3306 --MYSQL_DB=zipkin --MYSQL_USER=root --MYSQL_PASS=tiger
复制
注意:根据自己情况修改 MySQL 连接配置信息。
请求订单接口,查看数据库:
请求调用链相关信息已被记录在数据库中。
- 点赞
- 收藏
- 关注作者
评论(0)