博客
关于我
十四.SpringCloud极简入门-链路追踪-Spring Cloud Sleuth
阅读量:724 次
发布时间:2019-03-21

本文共 1400 字,大约阅读时间需要 4 分钟。

链路追踪(Spring Cloud Sleuth)

基本概念

为什么需要链路追踪

当应用采用微服务架构时,可能会有十几到几百个服务在运行。一个请求可能需要多个服务的呼吁才能完成。当请求变慢或无法使用时,很难确定是哪个服务导致问题。此时,需要一种方法来快速定位故障点,并追踪服务之间的调用链和通信时间等信息。Zipkin分布式跟踪系统能够有效解决这些问题,而Spring Cloud Sleuth组件基于Zipkin封装,使链路追踪实现更加简单。

ZipKin介绍

ZipKin是Twitter推出的开源项目,基于Google Dapper实现。它用于收集各服务器上的请求链路数据,并通过REST API接口辅助查询分析,帮助发现系统延迟升高和性能瓶颈问题。除了开发者的API接口,ZipKin还提供了直观的UI组件,方便用户查询跟踪信息和分析请求链路。

核心概念

ZipKin通过在请求和响应中加入ID,标注上下游调用关系,以便可视化分析服务链路和依赖关系。其核心概念包括以下几点:- **traceId**:16字符的字符串,用于确定一个追踪链。在一次追踪链中,traceId保持不变。- **spanId**:16字符的字符串,用于标识一个服务中的身份。一个服务处理跟踪选择一个spanId,每个spanId表示一个基本工作单元,包含描述信息如id、parentId、name、timestamp、duration和annotations等。- **parentId**:在跨服务调用时,spanId会被传递给被调用服务,服务将调用者的spanId作为自己的parentId,生成新的spanId。

Spring Cloud Sleuth和ZipKin

Spring Cloud Sleuth主要功能是为分布式系统提供追踪解决方案,兼容支持ZipKin。通过引入spring-cloud-starter-zipkin依赖,可以集成ZipKin实现。Sleuth对Span、Trace等信息的生成和接入HTTP请求以及向ZipKin Server发送采集信息等任务都进行了自动化。它对ZipKin进行了封装,使开发者无需手动配置即可实现链路追踪功能。

实战

搭建Zipkin服务

创建工程并导入依赖,以下是要点:- 使用Spring Boot和依赖管理工具创建项目。- 在配置类中启用@EnableZipkinServer注解开启Zipkin服务端。- 启动应用,访问http://localhost:1080/zipkin/查看效果。

微服务集成Zipkin客户端

所有需要链路追踪的微服务都需要:- 入门 spring-cloud-starter-zipkin依赖。- 配置ZipKin客户端,设置服务端地址和其他必要参数。如: ``` spring: zipkin: base-url: http://localhost:1080 discovery-client-enabled: false sender: type: web sleuth: sampler: probability: 1.0 ```- 开启链路追踪功能,完成后即可使用。

测试

启动集成了ZipKin客户端的微服务,访问应用触发服务调用。通过访问http://localhost:1080/zipkin/查看链路信息。

转载地址:http://bxdgz.baihongyu.com/

你可能感兴趣的文章
Nginx配置实例-动静分离实例:搭建静态资源服务器
查看>>
Nginx配置实例-反向代理实例:根据访问的路径跳转到不同端口的服务中
查看>>
Nginx配置实例-负载均衡实例:平均访问多台服务器
查看>>
Nginx配置文件nginx.conf中文详解(总结)
查看>>
nginx配置详解、端口重定向和504
查看>>
Nginx配置负载均衡到后台网关集群
查看>>
Nginx配置限流,技能拉满!
查看>>
Nginx面试三连问:Nginx如何工作?负载均衡策略有哪些?如何限流?
查看>>
Nginx:NginxConfig可视化配置工具安装
查看>>
ngModelController
查看>>
ngrok | 内网穿透,支持 HTTPS、国内访问、静态域名
查看>>
NHibernate学习[1]
查看>>
NHibernate异常:No persister for的解决办法
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
查看>>
NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
查看>>