基于Go、gRPC和Protobuf的微服务的Istio可观察性

2019年5月27日 | 作者 Gary Stafford | 译者 马若飞 | 审校者 罗广明 | 7900字 | 阅读大约需要16分钟

编者按

本文演示了如何基于Go语言、gRPC和Protobuf技术构建一个微服务,并着重介绍了实现Istio可观测功能的三大支柱:日志、度量和追踪,以及与之对应的工具Logrus、Prometheus、Grafana、Jeager等。通过文章内容和示例代码,读者会对如何构建gRPC技术栈的微服务和使用Istio可视化工具观测服务的实现方案有一个全面的认识。

在过去的两篇文章中(具有Istio服务网格的基于Kubernetes的微服务可视化具有Istio服务网格的AKS可视化),我们探索了包含在Istio服务网格中的可视化工具,包括用于指标收集、监控和报警的PrometheusGrafana,用做分布式追踪的Jaeger,以及基于Istio服务网格的微服务可视化和监控工具Kiali和云平台原生的监控、日志服务相比(例如GCP的 Stackdriver,AWS上的 CloudWatch,Azure上的 Azure Monitor),我们有针对现代化的、分布式的云应用的全面的可视化解决方案。

在这篇文章中,我们将考察使用Istio可视化工具来监控基于Go语言的微服务,它们使用 Protocol BuffersgRPCHTTP/2作为客户端-服务端通信,这与传统的基于REST JSON和HTTP进行通信是不同的。我们将看到Kubernetes、Istio、Envoy和可视化工具如何与gRPC无缝地工作,就像在Google Kubernetes Engine上通过HTTP处理JSON一样。

screen_shot_2019-04-18_at_6_03_38_pm

技术

[Image result for grpc logo]

根据gRPC项目介绍, gRPC是CNCF的孵化项目,一个现代化的、高性能、开源和通用的RPC框架,可以在任何地方运行。它使客户端和服务端应用能够透明地通信,并更加容易的构建连接系统。Google是gRPC最初的开发者,多年来一直使用gRPC中的底层技术和概念。当前的实现用于几个谷歌的云产品和对外的API。许多其他组织也在使用它,比如Square、Netflix、CoreOS、Docker、CockroachDB、Cisco、Juniper Networks等。

Image result for google developer

默认情况下gRPC使用Protocol Buffers。根据Google官方的介绍,Protocol Buffers是一种与语言和平台无关的、高效的、可扩展的自动序列化结构化的数据的机制,以便在通信协议、数据存储等方面使用。Protocol Buffers比XML小3到10倍,并且快20到100倍。使用生成数据访问类编译的.proto源文件很容易以编程方式使用。

Protocol Buffers比XML小3到10倍,并且快20到100倍。

Protocol buffers 目前支持生成Java,Python,Objective-C,C++,Dart,Go,Ruby和C#代码。 本文我们使用Go语言编程。你可以从Google的 开发者页面了解更多Protobuf二进制格式的信息。

Image result for envoy proxy

根据Istio项目的介绍,Istio使用了一个扩展版本的 Envoy 代理。Envoy作为sidecar和与它相关的服务部署在同一个Kubernetes Pod中。Envoy由Lyft创建,是一个C++开发的高性能代理,为服务网格中的所有服务传送出入流量。Istio利用了Envoy的许多内置特性,包括动态服务发现,负载均衡,TLS终止,HTTP/2和gRPC代理,熔断、健康检查,灰度发布,故障注入和富指标等。

根据Google的Harvey Tuch的文章Evolving a Protocol Buffer canonical API,Envoy代理兼容Protocol Buffers,特别是proto3,作为Lyft gRPC API第二版本的首选规范。

涉及的微服务平台

在前两篇文章中,我们探讨了Istio的可观察性工具,使用了用Go编写的基于RESTful的微服务的API平台,并使用JSON通过HTTP进行服务到服务的通信。API平台由8个基于 Go 的微服务和一个示例Angular 7,基于TypeScript 的前端web客户端组成。对于基于事件队列的通信,各种服务都依赖于MongoDB和RabbitMQ。下面是使用HTTP传输JSON的平台架构。

Golang Service Diagram with Proxy v2

下面是Angular 7的web客户端接口。

screen_shot_2019-04-15_at_10_23_47_pm

转到 gRPC 和 Protocol Buffers

在本文中,我修改了8个Go微服务使用 gRPCProtocol Buffers(Google的数据交换格式)。具体来讲,服务使用了Protocol Buffers的版本3(简称proto3)。使用gRPC的方式, 一个gRPC客户端会调用gRPC服务端。平台的一些服务是gRPC服务端,另一些是gRPC客户端,而一些同时充当客户端和服务端,如服务A、B和EE。修改后的体系结构如下所示。

Golang-Service-Diagram-with-gRPC

gRPC 网关

假设为了进行这个演示,API的大多数消费者仍然希望使用RESTful JSON通过HTTP API进行通信,我已经向平台添加了一个gRPC 网关 作为反向代理。它是一个gRPC到JSON的反向代理,这是一种通用的架构模式,它通过基于HTTP的客户端代理JSON与基于gRPC的微服务进行通信。来自grpc-gateway的GitHub项目的图有效地演示了反向代理是如何工作的。

grpc_gateway.png

图像来源: https://github.com/grpc-ecosystem/grpc-gateway

在上面的平台架构图中添加了反向代理,替换了API边缘的服务A。代理位于基于Angular的Web UI和服务A之间。此外,服务之间的通信方式是通过gRPC上的Protobuf,而不是HTTP上的JSON。Envoy代理(通过Istio)的使用没有改变,基于MongoDB Atlas的数据库和基于CloudAMQP RabbitMQ的队列也没有改变,它们仍然位于Kubernetes集群的外部。

替换 gRPC 网关

作为gRPC网关反向代理的替代方案,我们可以将基于TypeScript的Angular UI客户端转换为gRPC和Protocol Buffers,并继续作为边缘服务直接与服务A通信。然而,这将限制API的其他消费者依赖gRPC而不是HTTP和JSON,除非我们选择发布两个不同的endpoint:gRPC和HTTP JSON(这是另一种常见的模式)。

演示

在本文的演示中,我们将重复上一篇文章(Kubernetes-based Microservice Observability with Istio Service Mesh)中完全相同的安装过程。我们将把修改后的基于grpc的平台部署到GCP的GKE上。你也可以遵循Azure Kubernetes Service (AKS) Observability with Istio Service Mesh,轻松的将平台部署到AKS。

源代码

本文的所有源代码都可以在GitHub上找到,包含了三个项目。基于Go的微服务源代码、所有Kubernetes资源和所有部署脚本都位于k8s-istio-observe-backend项目代码库的“grpc”分支中。

git clone \
  --branch grpc --single-branch --depth 1 --no-tags \
  https://github.com/garystafford/k8s-istio-observe-backend.git

基于angular的web客户端源代码在k8s-istio-observe-frontend代码库的”grpc”分支。.proto源文件和使用Protocol Buffers编译器生成的代码位于新的pb-greeting项目代码库中。在本文的演示中,你不需要克隆这些项目中的任何一个。

所有的服务、UI和反向代理的的Docker镜像都在Docker Hub

代码变化

本文并不是专门针对gRPC和Protobuf编写的。但是,为了更好地理解这些技术的可观察性需求和功能,与HTTP JSON相比,复查一些源代码是有帮助的。

服务 A

首先,将如下所示的服务A的源代码与前一篇文章中的原始代码进行比较。服务的代码几乎被完全重写。编写代码时,我依赖于几个参考资料,包括使用Istio追踪gRPC,由Aspen Mesh的Neeraj Poddar编写,和Masroor Hasan撰写的Kubernetes上的分布式追踪架构Jeager

下面是服务A具体的代码变化:

  • 导入pb-greeting protobuf 包;
  • 本地 Greeting 结构体被 pb.Greeting 结构体替代;
  • 所有的服务都基于 50051端口;
  • HTTP 服务器和所有的 API 资源处理器函数被移除;
  • 用于做Jeager的分布式追踪的请求头信息从HTTP的请求对象中移动到了gRPC context对象中的metadata里;
  • 服务A作为gRPC服务端,被gRPC网关反向代理(客户端)通过Greeting函数调用;
  • 主要的 PingHandler 函数,返回服务的 Greeting,被 pb-greeting protobuf 包的 `Greeting函数替代;
  • 服务A作为gRPC客户端,使用CallGrpcService` 函数调用服务B和服务C;
  • CORS 被从Istio中卸载;
  • Logging 方法没有改变;

基于gRPC的服务 A 的源码如下(要点):

// author: Gary A. Stafford
// site: https://programmaticponderings.com
// license: MIT License
// purpose: Service A - gRPC/Protobuf


package main

import (
	"context"
	"github.com/banzaicloud/logrus-runtime-formatter"
	"github.com/google/uuid"
	"github.com/grpc-ecosystem/go-grpc-middleware/tracing/opentracing"
	ot "github.com/opentracing/opentracing-go"
	log "github.com/sirupsen/logrus"
	"google.golang.org/grpc"
	"google.golang.org/grpc/metadata"
	"net"
	"os"
	"time"

	pb "github.com/garystafford/pb-greeting"
)


const (
	port = ":50051"
)

type greetingServiceServer struct {
}

var (
	greetings []*pb.Greeting
)

func (s *greetingServiceServer) Greeting(ctx context.Context, req *pb.GreetingRequest) (*pb.GreetingResponse, error) {
	greetings = nil

	tmpGreeting := pb.Greeting{
		Id:      uuid.New().String(),
		Service: "Service-A",
		Message: "Hello, from Service-A!",
		Created: time.Now().Local().String(),
	}

	greetings = append(greetings, &tmpGreeting)

	CallGrpcService(ctx, "service-b:50051")
	CallGrpcService(ctx, "service-c:50051")

	return &pb.GreetingResponse{
		Greeting: greetings,
	}, nil
}

func CallGrpcService(ctx context.Context, address string) {
	conn, err := createGRPCConn(ctx, address)
	if err != nil {
		log.Fatalf("did not connect: %v", err)
	}
	defer conn.Close()

	headersIn, _ := metadata.FromIncomingContext(ctx)
	log.Infof("headersIn: %s", headersIn)

	client := pb.NewGreetingServiceClient(conn)
	ctx, cancel := context.WithTimeout(context.Background(), 5*time.Second)

	ctx = metadata.NewOutgoingContext(context.Background(), headersIn)

	defer cancel()

	req := pb.GreetingRequest{}
	greeting, err := client.Greeting(ctx, &req)
	log.Info(greeting.GetGreeting())
	if err != nil {
		log.Fatalf("did not connect: %v", err)
	}
	for _, greeting := range greeting.GetGreeting() {
		greetings = append(greetings, greeting)
	}
}

func createGRPCConn(ctx context.Context, addr string) (*grpc.ClientConn, error) {
	//https://aspenmesh.io/2018/04/tracing-grpc-with-istio/
	var opts []grpc.DialOption
	opts = append(opts, grpc.WithStreamInterceptor(
		grpc_opentracing.StreamClientInterceptor(
			grpc_opentracing.WithTracer(ot.GlobalTracer()))))
	opts = append(opts, grpc.WithUnaryInterceptor(
		grpc_opentracing.UnaryClientInterceptor(
			grpc_opentracing.WithTracer(ot.GlobalTracer()))))
	opts = append(opts, grpc.WithInsecure())
	conn, err := grpc.DialContext(ctx, addr, opts...)
	if err != nil {
		log.Fatalf("Failed to connect to application addr: ", err)
		return nil, err
	}
	return conn, nil
}

func getEnv(key, fallback string) string {
	if value, ok := os.LookupEnv(key); ok {
		return value
	}
	return fallback
}

func init() {
	formatter := runtime.Formatter{ChildFormatter: &log.JSONFormatter{}}
	formatter.Line = true
	log.SetFormatter(&formatter)
	log.SetOutput(os.Stdout)
	level, err := log.ParseLevel(getEnv("LOG_LEVEL", "info"))
	if err != nil {
		log.Error(err)
	}
	log.SetLevel(level)
}

func main() {
	lis, err := net.Listen("tcp", port)
	if err != nil {
		log.Fatalf("failed to listen: %v", err)
	}

	s := grpc.NewServer()
	pb.RegisterGreetingServiceServer(s, &greetingServiceServer{})
	log.Fatal(s.Serve(lis))
}

Greeting Protocol Buffers

下面显示的是greeting的 .proto源文件。最初在服务中定义的greeting返回结构体大体上没变。UI客户端响应看起来也是一样的。

syntax = "proto3";
package greeting;

import "google/api/annotations.proto";

message Greeting {
    string id = 1;
    string service = 2;
    string message = 3;
    string created = 4;
}
message GreetingRequest {
}

message GreetingResponse {
    repeated Greeting greeting = 1;
}
service GreetingService {
    rpc Greeting (GreetingRequest) returns (GreetingResponse) {
        option (google.api.http) = {
            get: "/api/v1/greeting"
        };
    }
}

使用基于Go的协议编译器插件protoc进行编译时,最初的27行源代码膨胀到几乎270行,生成的数据访问类更容易通过编程使用。

# Generate gRPC stub (.pb.go)
protoc -I /usr/local/include -I. \
  -I ${GOPATH}/src \
  -I ${GOPATH}/src/github.com/grpc-ecosystem/grpc-gateway/third_party/googleapis \
  --go_out=plugins=grpc:. \
  greeting.proto

# Generate reverse-proxy (.pb.gw.go)
protoc -I /usr/local/include -I. \
  -I ${GOPATH}/src \
  -I ${GOPATH}/src/github.com/grpc-ecosystem/grpc-gateway/third_party/googleapis \
  --grpc-gateway_out=logtostderr=true:. \
  greeting.proto

# Generate swagger definitions (.swagger.json)
protoc -I /usr/local/include -I. \
  -I ${GOPATH}/src \
  -I ${GOPATH}/src/github.com/grpc-ecosystem/grpc-gateway/third_party/googleapis \
  --swagger_out=logtostderr=true:. \
  greeting.proto

下面是编译代码的一小段,供参考。编译后的代码包含在GitHub上的 pb-greeting 项目中,并导入到每个微服务和反向代理(要点)。我们还编译了一个单独的版本来实现反向代理。

使用Swagger,我们可以查看greeting protocol buffers的单个RESTful API资源,该资源使用HTTP GET方法公开。我使用基于docker版本的Swagger UI来查看原生代码生成的Swagger定义。

docker run -p 8080:8080 -d --name swagger-ui \
  -e SWAGGER_JSON=/tmp/greeting.swagger.json \
  -v ${GOAPTH}/src/pb-greeting:/tmp swaggerapi/swagger-ui

Angular UI向“/api/v1/greeting”资源发出HTTP GET请求,该资源被转换为gRPC并代理到Service A,在那里由“greeting”函数处理。

screen_shot_2019-04-15_at_9_05_23_pm

gRPC 网关反向代理

如前所述,gRPC 网关 反向代理是全新的,下面列出了主要的代码特性:

如前所述,gRPC网关反向代理服务是全新的。

  • 导入 pb-greeting protobuf 包;
  • 代理使用 80端口;
  • 用于与Jaeger一起进行分布式追踪的请求头从传入的HTTP请求中收集信息,并传递给gRPC上下文中的服务A;
  • 代理被编写为gRPC客户端,调用服务A;
  • 日志大部分没有改变;

反向代理 源码如下:

// author: Gary A. Stafford
// site: https://programmaticponderings.com
// license: MIT License
// purpose: gRPC Gateway / Reverse Proxy
// reference: https://github.com/grpc-ecosystem/grpc-gateway


package main


import (
	"context"
	"flag"
	lrf "github.com/banzaicloud/logrus-runtime-formatter"
	gw "github.com/garystafford/pb-greeting"
	"github.com/grpc-ecosystem/grpc-gateway/runtime"
	log "github.com/sirupsen/logrus"
	"google.golang.org/grpc"
	"google.golang.org/grpc/metadata"
	"net/http"
	"os"
)


func injectHeadersIntoMetadata(ctx context.Context, req *http.Request) metadata.MD {
	//https://aspenmesh.io/2018/04/tracing-grpc-with-istio/
	var (
		otHeaders = []string{
			"x-request-id",
			"x-b3-traceid",
			"x-b3-spanid",
			"x-b3-parentspanid",
			"x-b3-sampled",
			"x-b3-flags",
			"x-ot-span-context"}
	)
	var pairs []string


	for _, h := range otHeaders {
		if v := req.Header.Get(h); len(v) > 0 {
			pairs = append(pairs, h, v)
		}
	}
	return metadata.Pairs(pairs...)
}


type annotator func(context.Context, *http.Request) metadata.MD


func chainGrpcAnnotators(annotators ...annotator) annotator {
	return func(c context.Context, r *http.Request) metadata.MD {
		var mds []metadata.MD
		for _, a := range annotators {
			mds = append(mds, a(c, r))
		}
		return metadata.Join(mds...)
	}
}


func run() error {
	ctx := context.Background()
	ctx, cancel := context.WithCancel(ctx)
	defer cancel()


	annotators := []annotator{injectHeadersIntoMetadata}


	mux := runtime.NewServeMux(
		runtime.WithMetadata(chainGrpcAnnotators(annotators...)),
	)


	opts := []grpc.DialOption{grpc.WithInsecure()}
	err := gw.RegisterGreetingServiceHandlerFromEndpoint(ctx, mux, "service-a:50051", opts)
	if err != nil {
		return err
	}


	return http.ListenAndServe(":80", mux)
}


func getEnv(key, fallback string) string {
	if value, ok := os.LookupEnv(key); ok {
		return value
	}
	return fallback
}


func init() {
	formatter := lrf.Formatter{ChildFormatter: &log.JSONFormatter{}}
	formatter.Line = true
	log.SetFormatter(&formatter)
	log.SetOutput(os.Stdout)
	level, err := log.ParseLevel(getEnv("LOG_LEVEL", "info"))
	if err != nil {
		log.Error(err)
	}
	log.SetLevel(level)
}


func main() {
	flag.Parse()


	if err := run(); err != nil {
		log.Fatal(err)
	}
}

在下面显示的Stackdriver日志中,我们看到JSON有效负载中的一组HTTP请求头的示例,它们从gRPC网关的反向代理被传播到上游基于gRPC的Go服务。头传播确保请求在整个服务调用链上生成完整的分布式追踪。

screen_shot_2019-04-15_at_11_10_50_pm

Istio 虚拟服务和 CORS

根据GitHub项目中反馈的问题,gRPC网关不直接支持跨源资源共享(Cross-Origin Resource Sharing, CORS)策略。根据我的经验,gRPC网关不能处理选项HTTP方法请求,必须由Angular 7的web UI发出。因此,我使用虚拟服务资源的 CorsPolicy 配置将CORS的职责转移给了Istio。这使得CORS比硬编码到服务代码中更容易管理:

apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
  name: service-rev-proxy
spec:
  hosts:
  - api.dev.example-api.com
  gateways:
  - demo-gateway
  http:
  - match:
    - uri:
        prefix: /
    route:
    - destination:
        port:
          number: 80
        host: service-rev-proxy.dev.svc.cluster.local
      weight: 100
    corsPolicy:
      allowOrigin:
      - "*"
      allowMethods:
      - OPTIONS
      - GET
      allowCredentials: true
      allowHeaders:
      - "*"

安装

要将微服务平台部署到GKE,请遵循本文第一部分的详细说明,或基于Kubernetes的微服务可观察性与Istio服务网格:第1部分, 或针对AKS的 Azure Kubernetes服务(AKS)可观察性与Istio服务网格

  • 创建额外的MongoDB Atlas 数据库和CloudAMQP RabbitMQ 集群;
  • 为你的环境修改Kubernetes资源文件和bash脚本;
  • 在GCP或Azure上创建可管理的GKE或AKS;
  • 使用Helm配置和部署Istio到Kubernetes集群;
  • 为平台暴露出去的资源创建DNS记录;
  • 在Kubernetes集群上部署基于Go的微服务、gRPC网关反向代理、Angular UI和相关的资源;
  • 测试和排查平台部署的问题;
  • 观察结果。

三大支柱

正如在第一篇文章中介绍的,日志、度量和追踪通常被称为可观察性的三大支柱。这些是我们可以观察到的系统的外部输出。随着现代分布式系统变得越来越复杂,观察这些系统的能力同样需要现代化的工具,具有这种级别的复杂性需要在设计时考虑到。在如今混合云、多语言、基于事件驱动、基于容器和serverless、可无限扩展的临时计算平台下传统的日志记录和监视系统常常难以胜任。

Istio服务网格 这样的工具尝试通过与几个最好的开源遥测工具集成来解决可观测性的挑战。Istio的集成包括用于分布式追踪的Jaeger,用于基于Istio服务网格的微服务可视化和监控的Kiali,以及用于度量收集、监控和报警的PrometheusGrafana 。与云平台本地监视和日志服务相结合,例如针对GKE的Stackdriver、针对Amazon的EKS的CloudWatch或针对AKS的Azure Monitor 日志,我们为现代的、分布式的、基于云的应用程序提供了完整的可观察性解决方案。

支柱 1: 日志

对基于Go语言的服务代码或Kubernetes资源的日志配置来说,从HTTP JSON转到gRPC不需要任何改变。

带有Logrus的Stackdriver

正如上一篇文章的第二部分(基于kubernetes的微服务可观察性与Istio服务网格)所提到的,我们针对8个基于Go的微服务和反向代理的日志策略仍然是使用Logrus(流行的Go语言结构化日志系统)和Banzai Cloud的logrus-runtime-formatter

如果您还记得,Banzai formatter会自动将运行时/堆栈信息(包括函数名和行号)标记在日志消息里;在排查故障时非常有用。我们还使用Logrus的JSON formatter。在下面显示的Stackdriver控制台中,注意下面的每个日志条目如何在消息中包含JSON有效负载,包含日志级别、函数名、日志条目的起始行和消息。

screen_shot_2019-04-15_at_11_10_36_pm

下图是一个特定日志条目的JSON有效负载的详细信息。在这个示例中,我们可以看到从下游服务传来的请求头。

screen_shot_2019-04-15_at_11_10_50_pm

支柱 2: 度量

对基于Go语言的服务代码或Kubernetes资源的度量配置来说,从HTTP JSON转到gRPC不需要任何改变。

Prometheus

Prometheus 是一个完全开源的社区驱动的系统监控和报警工具集,最初是在2012年左右在SoundCloud开发的。有趣的是,Prometheus在2016年加入了云原生计算基金会 (CNCF),成为继Kubernetes之后的第二个托管项目。

screen_shot_2019-04-15_at_11_04_54_pm

Grafana

Grafana将自己描述为时间序列分析开源软件的领袖。根据Grafana Labs的说法,Grafana允许你查询、观测、提醒和理解指标,无论它们存储在哪里。你可以轻松地创建、探索和共享有丰富视图的数据驱动的仪表板。Grafana允许用户为最重要的指标定义可视化的警报规则。Grafana将持续评估规则并发送通知。

Istio的Grafana插件是Grafana的一个预配置的实例。Grafana Docker基础镜像已经修改为带有Prometheus数据源和安装好的Istio仪表板。下图展示了看到的两个预先配置的仪表板:Istio Mesh仪表板和Istio性能仪表板。

screen_shot_2019-04-15_at_10_45_38_pm screen_shot_2019-04-15_at_10_46_03_pm

支柱 3: 追踪

从HTTP的JSON迁移到gRPC确实需要重写服务代码中的追踪逻辑。事实上,我花了大部分时间来确保报头的正确性,它从Istio Ingress网关传播到gRPC网关反向代理、再到gRPC上下文中的服务A,以及上游到所有依赖的、基于gRPC的服务。我确信在我当前的代码中有许多关于正确处理追踪以及如何在服务调用堆栈中传播这些信息的优化。

Jaeger

根据网站的介绍,Jaeger是受DapperOpenZipkin的启发,由Uber Technologies公司发布的一个开源分布式追踪系统。它用于监控和排查基于微服务的分布式系统,包括分布式上下文传播、分布式事务监控、故障根本原因分析、服务依赖关系分析以及性能和延迟优化。Jaeger网站有一篇非常好的有关Jaeger架构和通用追踪相关术语的概述文章。

下面看到的是一个Jaeger UI 追踪视图。在其中有一系列由hey生成的追踪数据,hey是一个流行的负载生成器和基准测试工具,是Apache Bench (ab)的一个有价值的替代品。与ab不同的是hey支持HTTP/2。在前一篇文章中详细介绍了hey的用法。

screen_shot_2019-04-18_at_6_08_21_pm

你可能还记得,一个追踪数据是贯穿系统的执行路径,可以认为是一个span的有向无环图 (DAG)。如果你使用过Apache Spark这样的系统,那么你可能已经很熟悉DAG了。

screen_shot_2019-04-15_at_11_06_13_pm

下面是Jaeger UI Trace 的详细视图。示例的追踪信息包含了16个span,其中包含9个组件——7个基于go的服务、一个反向代理和一个Istio Ingress网关。每个追踪和span都有时间点。追踪中的根span是Istio Ingress网关。在这个演示中,追踪没有在RabbitMQ消息队列埋点。这意味着您不会看到包含服务D到服务F之间通过RabbitMQ进行解耦的、基于消息通信的追踪信息。

screen_shot_2019-04-15_at_11_08_07_pm

在Jaeger UI Trace 详细视图中,您还可以植入一个包含额外元数据的单个span。元数据包括被调用的URL、HTTP方法、响应状态和其他几个报头。

screen_shot_2019-04-15_at_11_08_22_pm

微服务的可观察性

对基于Go语言的服务代码或Kubernetes资源的Kiali配置来说,从HTTP JSON转到gRPC不需要任何改变。

Kiali

根据他们的网站描述,Kiali提供了以下问题的答案:Istio服务网格中的微服务是什么?它们是如何连接的?Kiali基于在OpenShift或Kubernetes平台的Istio运行,提供服务网格拓扑监测、断路器、请求速率等特性的可见性。它提供了从抽象的应用到服务和工作负载等不同级别的网格组件的视图。

Kiali UI中的图形视图是运行在Istio服务网格中的组件的可视化表示。下图显示了过滤集群的dev命名空间,可以注意到Kiali已经映射了平台中的所有组件,以及丰富的元数据,比如它们的版本和通信协议。

screen_shot_2019-04-18_at_6_03_38_pm

使用Kiali,我们可以确认服务到服务的IPC协议现在已经由gRPC替换了之前的HTTP。

screen_shot_2019-04-14_at_11_15_49_am

总结

尽管将HTTP JSON转换为基于gRPC的protocol buffers需要对服务进行大量的代码更改,但这并不影响我们使用Istio提供的工具(包括Prometheus、Grafana、Jaeger和Kiali)对服务进行观测。

本文所有观点均为原创,和我之前的雇主和其客户无关。