自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

OpenTelemetry 實戰(zhàn):gRPC 監(jiān)控的實現(xiàn)原理

開發(fā) 前端
具體埋點過程中 OpenTelemetry 提供了許多解耦的 API,方便我們實現(xiàn)埋點所需要的業(yè)務(wù)邏輯,也會在后續(xù)的文章繼續(xù)分析 OpenTelemetry 的一些設(shè)計原理和核心 API 的使用。

前言

圖片圖片

最近在給 opentelemetry-java-instrumentation 提交了一個 PR,是關(guān)于給 gRPC 新增四個 metrics:

  • rpc.client.request.size: 客戶端請求包大小
  • rpc.client.response.size:客戶端收到的響應(yīng)包大小
  • rpc.server.request.size:服務(wù)端收到的請求包大小
  • rpc.server.response.size:服務(wù)端響應(yīng)的請求包大小

這個 PR 的主要目的就是能夠在指標(biāo)監(jiān)控中拿到 RPC 請求的包大小,而這里的關(guān)鍵就是如何才能拿到這些包的大小。

首先支持的是 gRPC(目前在云原生領(lǐng)域使用的最多),其余的 RPC 理論上也是可以支持的:

圖片圖片

在實現(xiàn)的過程中我也比較好奇 OpenTelemetry 框架是如何給 gRPC 請求創(chuàng)建 span 調(diào)用鏈的,如下圖所示:

圖片圖片

圖片圖片

這是一個 gRPC 遠(yuǎn)程調(diào)用,java-demo 是 gRPC 的客戶端,k8s-combat 是 gRPC 的服務(wù)端

在開始之前我們可以根據(jù) OpenTelemetry 的運行原理大概猜測下它的實現(xiàn)過程。

首先我們應(yīng)用可以創(chuàng)建這些鏈路信息的前提是:使用了 OpenTelemetry 提供的 javaagent,這個 agent 的原理是在運行時使用了 byte-buddy 增強(qiáng)了我們應(yīng)用的字節(jié)碼,在這些字節(jié)碼中代理業(yè)務(wù)邏輯,從而可以在不影響業(yè)務(wù)的前提下增強(qiáng)我們的代碼(只要就是創(chuàng)建 span、metrics 等數(shù)據(jù))

Spring 的一些代理邏輯也是這樣實現(xiàn)的

gRPC 增強(qiáng)原理

而在工程實現(xiàn)上,我們最好是不能對業(yè)務(wù)代碼進(jìn)行增強(qiáng),而是要找到這些框架提供的擴(kuò)展接口。

拿 gRPC 來說,我們可以使用它所提供的 io.grpc.ClientInterceptor 和 io.grpc.ServerInterceptor 接口來增強(qiáng)代碼。

打開 io.opentelemetry.instrumentation.grpc.v1_6.TracingClientInterceptor 類我們可以看到它就是實現(xiàn)了 io.grpc.ClientInterceptor:

圖片圖片

而其中最關(guān)鍵的就是要實現(xiàn) io.grpc.ClientInterceptor#interceptCall 函數(shù):

@Override  
public <REQUEST, RESPONSE> ClientCall<REQUEST, RESPONSE> interceptCall(  
    MethodDescriptor<REQUEST, RESPONSE> method, CallOptions callOptions, Channel next) {  
  GrpcRequest request = new GrpcRequest(method, null, null, next.authority());  
  Context parentContext = Context.current();  
  if (!instrumenter.shouldStart(parentContext, request)) {  
    return next.newCall(method, callOptions);  
  }  
  Context context = instrumenter.start(parentContext, request);  
  ClientCall<REQUEST, RESPONSE> result;  
  try (Scope ignored = context.makeCurrent()) {  
    try {  
      // call other interceptors  
      result = next.newCall(method, callOptions);  
    } catch (Throwable e) {  
      instrumenter.end(context, request, Status.UNKNOWN, e);  
      throw e;  
    }  }  
  return new TracingClientCall<>(result, parentContext, context, request);  
}

這個接口是 gRPC 提供的攔截器接口,對于 gRPC 客戶端來說就是在發(fā)起真正的網(wǎng)絡(luò)調(diào)用前后會執(zhí)行的方法。

所以在這個接口中我們就可以實現(xiàn)創(chuàng)建 span 獲取包大小等邏輯。

使用 byte-buddy 增強(qiáng)代碼

不過有一個問題是我們實現(xiàn)的 io.grpc.ClientInterceptor 類需要加入到攔截器中才可以使用:

var managedChannel = ManagedChannelBuilder.forAddress(host, port) .intercept(new TracingClientInterceptor()) // 加入攔截器
.usePlaintext()
.build();

但在 javaagent 中是沒法給業(yè)務(wù)代碼中加上這樣的代碼的。

此時就需要 byte-buddy 登場了,它可以動態(tài)修改字節(jié)碼從而實現(xiàn)類似于修改源碼的效果。

在 io.opentelemetry.javaagent.instrumentation.grpc.v1_6.GrpcClientBuilderBuildInstr umentation  類里可以看到 OpenTelemetry 是如何使用 byte-buddy 的。

@Override
  public ElementMatcher<TypeDescription> typeMatcher() {
    return extendsClass(named("io.grpc.ManagedChannelBuilder"))
        .and(declaresField(named("interceptors")));
  }

  @Override
  public void transform(TypeTransformer transformer) {
    transformer.applyAdviceToMethod(
        isMethod().and(named("build")),
        GrpcClientBuilderBuildInstrumentation.class.getName() + "$AddInterceptorAdvice");
  }

  @SuppressWarnings("unused")
  public static class AddInterceptorAdvice {

    @Advice.OnMethodEnter(suppress = Throwable.class)
    public static void addInterceptor(
        @Advice.This ManagedChannelBuilder<?> builder,
        @Advice.FieldValue("interceptors") List<ClientInterceptor> interceptors) {
      VirtualField<ManagedChannelBuilder<?>, Boolean> instrumented =
          VirtualField.find(ManagedChannelBuilder.class, Boolean.class);
      if (!Boolean.TRUE.equals(instrumented.get(builder))) {
        interceptors.add(0, GrpcSingletons.CLIENT_INTERCEPTOR);
        instrumented.set(builder, true);
      }
    }
  }

從這里的源碼可以看出,使用了 byte-buddy 攔截了 io.grpc.ManagedChannelBuilder#intercept(java.util.List<io.grpc.ClientInterceptor>) 函數(shù)。

io.opentelemetry.javaagent.extension.matcher.AgentElementMatchers#extendsClass/ isMethod 等函數(shù)都是 byte-buddy 庫提供的函數(shù)。

而這個函數(shù)正好就是我們需要在業(yè)務(wù)代碼里加入攔截器的地方。

interceptors.add(0, GrpcSingletons.CLIENT_INTERCEPTOR);
GrpcSingletons.CLIENT_INTERCEPTOR = new TracingClientInterceptor(clientInstrumenter, propagators);

通過這行代碼可以手動將 OpenTelemetry 里的 TracingClientInterceptor 加入到攔截器列表中,并且作為第一個攔截器。

而這里的:

extendsClass(named("io.grpc.ManagedChannelBuilder"))
        .and(declaresField(named("interceptors")))

通過函數(shù)的名稱也可以看出是為了找到 繼承了io.grpc.ManagedChannelBuilder 類中存在成員變量 interceptors 的類。

transformer.applyAdviceToMethod(  
    isMethod().and(named("build")),  
    GrpcClientBuilderBuildInstrumentation.class.getName() + "$AddInterceptorAdvice");

然后在調(diào)用 build 函數(shù)后就會進(jìn)入自定義的 AddInterceptorAdvice 類,從而就可以攔截到添加攔截器的邏輯,然后把自定義的攔截器加入其中。

獲取 span 的 attribute

圖片圖片

我們在 gRPC 的鏈路中還可以看到這個請求的具體屬性,比如:

  • gRPC 服務(wù)提供的 IP 端口。
  • 請求的響應(yīng)碼
  • 請求的 service 和 method
  • 線程等信息。

這些信息在問題排查過程中都是至關(guān)重要的。

可以看到這里新的 attribute 主要是分為了三類:

  • net.* 是網(wǎng)絡(luò)相關(guān)的屬性
  • rpc.* 是和 grpc 相關(guān)的屬性
  • thread.* 是線程相關(guān)的屬性

所以理論上我們在設(shè)計 API 時最好可以將這些不同分組的屬性解耦開,如果是 MQ 相關(guān)的可能還有一些 topic 等數(shù)據(jù),所以各個屬性之間是互不影響的。

帶著這個思路我們來看看 gRPC 這里是如何實現(xiàn)的。

clientInstrumenterBuilder
 .setSpanStatusExtractor(GrpcSpanStatusExtractor.CLIENT)
 .addAttributesExtractors(additionalExtractors)
        .addAttributesExtractor(RpcClientAttributesExtractor.create(rpcAttributesGetter))
        .addAttributesExtractor(ServerAttributesExtractor.create(netClientAttributesGetter))
        .addAttributesExtractor(NetworkAttributesExtractor.create(netClientAttributesGetter))

OpenTelemetry 會提供一個 io.opentelemetry.instrumentation.api.instrumenter.InstrumenterBuilder#addAttributesExtractor構(gòu)建器函數(shù),用于存放自定義的屬性解析器。

從這里的源碼可以看出分別傳入了網(wǎng)絡(luò)相關(guān)、RPC 相關(guān)的解析器;正好也就對應(yīng)了圖中的那些屬性,也滿足了我們剛才提到的解耦特性。

而每一個自定義屬性解析器都需要實現(xiàn)接口 io.opentelemetry.instrumentation.api.instrumenter.AttributesExtractor

public interface AttributesExtractor<REQUEST, RESPONSE> {
}

這里我們以 GrpcRpcAttributesGetter 為例。

enum GrpcRpcAttributesGetter implements RpcAttributesGetter<GrpcRequest> {
  INSTANCE;

  @Override
  public String getSystem(GrpcRequest request) {
    return "grpc";
  }

  @Override
  @Nullable
  public String getService(GrpcRequest request) {
    String fullMethodName = request.getMethod().getFullMethodName();
    int slashIndex = fullMethodName.lastIndexOf('/');
    if (slashIndex == -1) {
      return null;
    }
    return fullMethodName.substring(0, slashIndex);
  }

可以看到 system 是寫死的 grpc,也就是對于到頁面上的 rpc.system 屬性。

而這里的 getService 函數(shù)則是拿來獲取 rpc.service 屬性的,可以看到它是通過 gRPC 的method 信息來獲取 service 的。


public interface RpcAttributesGetter<REQUEST> {  
  
  @Nullable  
  String getService(REQUEST request);
}

而這里 REQUEST 其實是一個泛型,在 gRPC 里是 GrpcRequest,在其他 RPC 里這是對應(yīng)的 RPC 的數(shù)據(jù)。

這個 GrpcRequest 是在我們自定義的攔截器中創(chuàng)建并傳遞的。圖片

而我這里需要的請求包大小也是在攔截中獲取到數(shù)據(jù)然后寫入進(jìn) GrpcRequest。

圖片圖片

static <T> Long getBodySize(T message) {  
  if (message instanceof MessageLite) {  
    return (long) ((MessageLite) message).getSerializedSize();  
  } else {  
    // Message is not a protobuf message  
    return null;  
  }}

這樣就可以實現(xiàn)不同的 RPC 中獲取自己的 attribute,同時每一組 attribute 也都是隔離的,互相解耦。

自定義 metrics

每個插件自定義 Metrics 的邏輯也是類似的,需要由框架層面提供 API 接口:

public InstrumenterBuilder<REQUEST, RESPONSE> addOperationMetrics(OperationMetrics factory) {  
  operationMetrics.add(requireNonNull(factory, "operationMetrics"));  
  return this;  
}
// 客戶端的 metrics
.addOperationMetrics(RpcClientMetrics.get());

// 服務(wù)端的 metrics
.addOperationMetrics(RpcServerMetrics.get());

之后也會在框架層面回調(diào)這些自定義的 OperationMetrics:

if (operationListeners.length != 0) {
      // operation listeners run after span start, so that they have access to the current span
      // for capturing exemplars
      long startNanos = getNanos(startTime);
      for (int i = 0; i < operationListeners.length; i++) {
        context = operationListeners[i].onStart(context, attributes, startNanos);
      }
    }

 if (operationListeners.length != 0) {  
   long endNanos = getNanos(endTime);  
   for (int i = operationListeners.length - 1; i >= 0; i--) {  
     operationListeners[i].onEnd(context, attributes, endNanos);  
   }
 }

這其中最關(guān)鍵的就是兩個函數(shù) onStart 和 onEnd,分別會在當(dāng)前這個 span 的開始和結(jié)束時進(jìn)行回調(diào)。

所以通常的做法是在 onStart 函數(shù)中初始化數(shù)據(jù),然后在 onEnd 結(jié)束時統(tǒng)計結(jié)果,最終可以拿到 metrics 所需要的數(shù)據(jù)。

以這個 rpc.client.duration 客戶端的請求耗時指標(biāo)為例:

@Override  
public Context onStart(Context context, Attributes startAttributes, long startNanos) {  
  return context.with(  
      RPC_CLIENT_REQUEST_METRICS_STATE,  
      new AutoValue_RpcClientMetrics_State(startAttributes, startNanos));  
}

@Override  
public void onEnd(Context context, Attributes endAttributes, long endNanos) {  
  State state = context.get(RPC_CLIENT_REQUEST_METRICS_STATE);
 Attributes attributes = state.startAttributes().toBuilder().putAll(endAttributes).build();  
 clientDurationHistogram.record(  
     (endNanos - state.startTimeNanos()) / NANOS_PER_MS, attributes, context);
}

在開始時記錄下當(dāng)前的時間,結(jié)束時獲取當(dāng)前時間和結(jié)束時間的差值正好就是這個 span 的執(zhí)行時間,也就是 rpc client 的處理時間。

在 OpenTelemetry 中絕大多數(shù)的請求時間都是這么記錄的。

Golang 增強(qiáng)

而在 Golang 中因為沒有 byte-buddy 這種魔法庫的存在,不可以直接修改源碼,所以通常的做法還是得硬編碼才行。

還是以 gRPC 為例,我們在創(chuàng)建 gRPC server 時就得指定一個 OpenTelemetry 提供的函數(shù)。

s := grpc.NewServer(  
    grpc.StatsHandler(otelgrpc.NewServerHandler()),  
)

圖片

在這個 SDK 中也會實現(xiàn)剛才在 Java 里類似的邏輯,限于篇幅具體邏輯就不細(xì)講了。

總結(jié)

以上就是 gRPC 在 OpenTelemetry 中的具體實現(xiàn),主要就是在找到需要增強(qiáng)框架是否有提供擴(kuò)展的接口,如果有就直接使用該接口進(jìn)行埋點。

如果沒有那就需要查看源碼,找到核心邏輯,再使用 byte-buddy 進(jìn)行埋點。

圖片圖片

比如 Pulsar 并沒有在客戶端提供一些擴(kuò)展接口,只能找到它的核心函數(shù)進(jìn)行埋點。

而在具體埋點過程中 OpenTelemetry 提供了許多解耦的 API,方便我們實現(xiàn)埋點所需要的業(yè)務(wù)邏輯,也會在后續(xù)的文章繼續(xù)分析 OpenTelemetry 的一些設(shè)計原理和核心 API 的使用。

這部分 API 的設(shè)計我覺得是 OpenTelemetry 中最值得學(xué)習(xí)的地方。

參考鏈接:

  • https://bytebuddy.net/#/
  • https://opentelemetry.io/docs/specs/semconv/rpc/rpc-metrics/#metric-rpcserverrequestsize
責(zé)任編輯:武曉燕 來源: crossoverJie
相關(guān)推薦

2024-08-28 08:09:13

contextmetrics類型

2024-08-21 08:09:17

2024-04-08 08:09:10

埋點收集數(shù)據(jù)StartRocks數(shù)據(jù)存儲

2023-09-06 07:17:57

2024-06-14 08:19:45

2015-09-15 15:41:09

監(jiān)控寶Docker

2024-04-16 08:09:36

JavapulsarAPI

2024-06-27 08:41:21

2015-12-11 11:49:19

java

2015-12-11 11:39:15

.net代碼

2024-05-27 08:09:29

2015-12-11 14:02:02

php應(yīng)用

2021-09-26 10:20:06

開發(fā)Golang代碼

2021-09-18 15:05:58

MySQL數(shù)據(jù)庫監(jiān)控

2025-02-17 07:45:29

2023-09-05 07:28:02

Java自動埋點

2023-12-25 11:18:12

OpenTeleme應(yīng)用日志Loki

2022-11-08 00:00:00

監(jiān)控系統(tǒng)Prometheus

2015-10-12 17:08:14

云智慧

2021-03-08 08:48:02

應(yīng)用場景項目
點贊
收藏

51CTO技術(shù)棧公眾號