所有博文均在个人独立博客http://blog.mozhu.org首发,欢迎访问!
 在2010年,谷歌发表了其内部使用的分布式跟踪系统Dapper的论文,讲述了Dapper在谷歌内部两年的演变和设计、运维经验。Twitter也根据该论文开发了自己的分布式跟踪系统Zipkin,并将其开源。 论文地址:http://static.googleusercontent.com/media/research.google.com/zh-CN/archive/papers/dapper-2010-1.pdf 译文地址:http://bigbully.github.io/Dapper-translation/
 分布式跟踪系统还有其他比较成熟的实现,例如:Naver的Pinpoint、Apache的HTrace、阿里的鹰眼Tracing、京东的Hydra、新浪的Watchman,美团点评的CAT,skywalking等。
 本系列博文,主要以Zipkin为主,介绍Zipkin的基本使用,原理,以及部分核心源代码的分析,当前Zipkin版本为2.2.1
 概述
 Zipkin是一款开源的分布式实时数据追踪系统(Distributed Tracking System),基于 Google Dapper的论文设计而来,由 Twitter 公司开发贡献。其主要功能是聚集来自各个异构系统的实时监控数据。
 
 如上图所示,各业务系统在彼此调用时,将特定的跟踪消息传递至zipkin,zipkin在收集到跟踪信息后将其聚合处理、存储、展示等,用户可通过web UI方便获得网络延迟、调用链路、系统依赖等等。
 Zipkin主要包括四个模块
  - Collector           接收或收集各应用传输的数据
- Storage            存储接受或收集过来的数据,当前支持Memory,MySQL,Cassandra,ElasticSearch等,默认存储在内存中。
- API(Query)   负责查询Storage中存储的数据,提供简单的JSON API获取数据,主要提供给web UI使用
- Web                  提供简单的web界面
Instrumented Client 和Instrumented Server,是指分布式架构中使用了Trace工具的两个应用,Client会调用Server提供的服务,两者都会向Zipkin上报Trace相关信息。在Client 和 Server通过Transport上报Trace信息后,由Zipkin的Collector模块接收,并由Storage模块将数据存储在对应的存储介质中,然后Zipkin提供API供UI界面查询Trace跟踪信息。 Non-Instrumented Server,指的是未使用Trace工具的Server,显然它不会上报Trace信息。
 流程图
 ┌─────────────┐ ┌───────────────────────┐  ┌─────────────┐  ┌──────────────────┐ │ User Code   │ │ Trace Instrumentation │  │ Http Client │  │ Zipkin Collector │ └─────────────┘ └───────────────────────┘  └─────────────┘  └──────────────────┘        │                 │                         │                 │            ┌─────────┐        │ ──┤GET /foo ├─▶ │ ────┐                   │                 │            └─────────┘         │ record tags        │                 │ ◀───┘                   │                 │                            ────┐        │                 │     │ add trace headers │                 │                            ◀───┘        │                 │ ────┐                   │                 │                                │ record timestamp        │                 │ ◀───┘                   │                 │                              ┌─────────────────┐        │                 │ ──┤GET /foo         ├─▶ │                 │                              │X-B3-TraceId: aa │     ────┐        │                 │   │X-B3-SpanId: 6b  │   │     │           │                              └─────────────────┘         │ invoke        │                 │                         │     │ request   │                                                          │        │                 │                         │     │           │                                  ┌────────┐          ◀───┘        │                 │ ◀─────┤200 OK  ├─────── │                 │                            ────┐ └────────┘        │                 │     │ record duration   │                 │             ┌────────┐     ◀───┘        │ ◀──┤200 OK  ├── │                         │                 │             └────────┘       ┌────────────────────────────────┐        │                 │ ──┤ asynchronously report span     ├────▶ │                              │                                │                              │{                               │                              │  "traceId": "aa",              │                              │  "id": "6b",                   │                              │  "name": "get",                │                              │  "timestamp": 1483945573944000,│                              │  "duration": 386000,           │                              │  "annotations": [              │                              │--snip--                        │                              └────────────────────────────────┘ 
 由上图可以看出,应用的代码(User Code)发起Http Get请求(请求路径/foo),经过Trace框架(Trace Instrumentation)拦截,并依次经过如下步骤,记录Trace信息到Zipkin中:
  - 记录tags信息
- 将当前调用链的Trace信息记录到Http Headers中
- 记录当前调用的时间戳(timestamp)
- 发送http请求,并携带Trace相关的Header,如X-B3-TraceId:aa,X-B3-SpandId:6b
- 调用结束后,记录当次调用所花的时间(duration)
- 将步骤1-5,汇总成一个Span(最小的Trace单元),异步上报该Span信息给Zipkin Collector
Zipkin的几个基本概念
 Span:基本工作单元,一次链路调用(可以是RPC,DB等没有特定的限制)创建一个span,通过一个64位ID标识它, span通过还有其他的数据,例如描述信息,时间戳,key-value对的(Annotation)tag信息,parent-id等,其中parent-id 可以表示span调用链路来源,通俗的理解span就是一次请求信息
 Trace:类似于树结构的Span集合,表示一条调用链路,存在唯一标识,即TraceId
 Annotation:注解,用来记录请求特定事件相关信息(例如时间),通常包含四个注解信息
  - cs - Client Start,表示客户端发起请求
- sr - Server Receive,表示服务端收到请求
- ss - Server Send,表示服务端完成处理,并将结果发送给客户端
- cr - Client Received,表示客户端获取到服务端返回信息
BinaryAnnotation:提供一些额外信息,一般以key-value对出现
 安装
 本系列博文使用的Zipkin版本为2.2.1,所需JDK为1.8
 下载最新的ZIpkin的jar包,并运行
 wget -O zipkin.jar 'https://search.maven.org/remote_content?g=io.zipkin.java&a=zipkin-server&v=LATEST&c=exec' java -jar zipkin.jar 
 还可以使用docker,具体操作请参考:
 https://github.com/openzipkin/docker-zipkin
 启动成功后浏览器访问
 http://localhost:9411/
 打开Zipkin的Web UI界面
 
 下面用一个简单的Web应用来演示如何向Zipkin上报追踪数据
 代码地址:https://gitee.com/mozhu/zipkin-learning
 在Chapter1/servlet25中,演示了如何在传统的Servlet项目中使用Brave框架,向Zipkin上传Trace数据
 分别运行
 mvn jetty:run -Pbackend 
 mvn jetty:run -Pfrontend 
 则会启动两个端口为8081和9000的服务,Frontend会发送请求到Backend,Backend返回当前时间
 Frontend:    http://localhost:8081/
 Backend:    http://localhost:9000/api
 浏览器访问 http://localhost:8081/ 会显示当前时间
 Fri Nov 03 18:43:00 GMT+08:00 2017
 打开Zipkin Web UI界面,点击 Find Traces,显示如下界面: 
 继续点击,查看详情,界面如下: 
 可以看到Frontend调用Backend的跟踪链信息,Frontend整个过程耗时113.839ms,其中调用Backend服务耗时67.805ms
 点击左侧跟踪栈的frontend和backend,分别打开每条跟踪栈的详细信息  
 
 点击页面右上角的JSON,可以看到该Trace的所有数据
 [   {     "traceId": "f3e648a459e6c685",     "id": "f3e648a459e6c685",     "name": "get",     "timestamp": 1509771706395235,     "duration": 113839,     "annotations": [       {         "timestamp": 1509771706395235,         "value": "sr",         "endpoint": {           "serviceName": "frontend",           "ipv4": "192.168.1.8"         }       },       {         "timestamp": 1509771706509074,         "value": "ss",         "endpoint": {           "serviceName": "frontend",           "ipv4": "192.168.1.8"         }       }     ],     "binaryAnnotations": [       {         "key": "ca",         "value": true,         "endpoint": {           "serviceName": "",           "ipv6": "::1",           "port": 55037         }       },       {         "key": "http.path",         "value": "/",         "endpoint": {           "serviceName": "frontend",           "ipv4": "192.168.1.8"         }       }     ]   },   {     "traceId": "f3e648a459e6c685",     "id": "2ce51fa654dd0c2f",     "name": "get",     "parentId": "f3e648a459e6c685",     "timestamp": 1509771706434207,     "duration": 67805,     "annotations": [       {         "timestamp": 1509771706434207,         "value": "cs",         "endpoint": {           "serviceName": "frontend",           "ipv4": "192.168.1.8"         }       },       {         "timestamp": 1509771706479391,         "value": "sr",         "endpoint": {           "serviceName": "backend",           "ipv4": "192.168.1.8"         }       },       {         "timestamp": 1509771706495481,         "value": "ss",         "endpoint": {           "serviceName": "backend",           "ipv4": "192.168.1.8"         }       },       {         "timestamp": 1509771706502012,         "value": "cr",         "endpoint": {           "serviceName": "frontend",           "ipv4": "192.168.1.8"         }       }     ],     "binaryAnnotations": [       {         "key": "ca",         "value": true,         "endpoint": {           "serviceName": "",           "ipv4": "127.0.0.1",           "port": 55038         }       },       {         "key": "http.path",         "value": "/api",         "endpoint": {           "serviceName": "frontend",           "ipv4": "192.168.1.8"         }       },       {         "key": "http.path",         "value": "/api",         "endpoint": {           "serviceName": "backend",           "ipv4": "192.168.1.8"         }       },       {         "key": "sa",         "value": true,         "endpoint": {           "serviceName": "",           "ipv4": "127.0.0.1",           "port": 9000         }       }     ]   } ] 
 点击Dependencies页面,可以看到下图,frontend和backend的依赖关系图
 
 在复杂的调用链路中假设存在一条调用链路响应缓慢,如何定位其中延迟高的服务呢? 在使用分布式跟踪系统之前,我们一般只能依次分析调用链路上各个系统中的日志文件, 而在使用了Zipkin提供的WebUI界面后,我们很容易搜索出一个调用链路中延迟高的服务
 后面博文中会详细介绍Zipkin的用法原理,以及和我们现有的系统框架整合。