博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
我们如何在Linkerd 2.2里设计重试
阅读量:6975 次
发布时间:2019-06-27

本文共 7388 字,大约阅读时间需要 24 分钟。

图片描述

作者:Alex Leong

重试是处理分布式系统中的部分或瞬态故障的基本机制。但重试也可能是危险的,如果做得不好,他们可以迅速将一个小错误升级为系统范围的中断。在这篇文章中,我们描述了我们如何在Linkerd 2.2里设计重试,使Linkerd能够在最小化风险的同时,自动提高系统可靠性。

将路由标记为可重试

在Linkerd 2.2里,我们引入了重试,就是Linkerd能够自动重试失败的请求。这使Linkerd能够自动处理服务中的部分或瞬态故障,而无需应用程序知道:如果请求失败,Linkerd可以再次尝试!结合Linkerd的,这允许Linkerd处理各个pod的故障。

在Linkerd里,您将重试指定为服务配置文件的一部分(在中介绍)。将路由标记为可重试就像添加isRetryable一样简单:设定true到相应的服务配置文件条目:

- name: HEAD /authors/{id}.json    condition:      method: HEAD      pathRegex: /authors/[^/]*\\.json    isRetryable: true

当然,在向路由添加重试行为之前,应该确保路由是幂等的(idempotent)。换句话说,对具有相同参数的相同路由的多次调用将没有不良影响。这很重要,因为重试(根据定义!)可能导致将同一请求的多个副本发送到服务。如果请求做了非幂等的(non-idempotent)事情,例如从您的银行帐户中减去一美元,您可能不希望它自动重试。

启用后,重试有两个重要参数:预算(budget)和超时(timeout)。让我们依次考虑这两个方面。

使用重试预算

将路由标记为可重试后,Linkerd允许您为服务配置重试预算。Linkerd附带了合理的默认值,但如果您想自定义预算,可以在服务配置文件中进行设置:

retryBudget:  # The retryRatio is the maximum ratio of retries requests to original  # requests.  A retryRatio of 0.2 means that retries may add at most an  # additional 20% to the request load.  retryRatio: 0.2  # This is an allowance of retries per second in addition to those allowed  # by the retryRatio.  This allows retries to be performed, when the request  # rate is very low.  minRetriesPerSecond: 10  # This duration indicates for how long requests should be considered for the  # purposes of calculating the retryRatio.  A higher value considers a larger  # window and therefore allows burstier retries.  ttl: 10s

Linkerd使用重试预算,较使用最大重试次数配置重试的常规做法,是更好替代方法。我们花一点时间来理解为什么。

为什么预算而不是最大重试次数?

首先,一些背景。配置重试的最常用方法,是指定在放弃之前执行的最大重试次数。对于使用网络浏览器的任何人来说,这是一个熟悉的想法:您尝试加载网页,如果没有加载,则再试一次。如果仍然无法加载,则第三次尝试。最后您放弃了。

不幸的是,以这种方式配置重试至少有两个问题:

选择最大重试次数是猜谜游戏。您需要选择一个足够高的数字,以便在出现某种故障时发挥作用,但不要太高,以至于当系统真正失败时会在系统上产生额外负载。在实践中,您通常会从帽子中选择最大重试次数(例如3),并希望获得最佳效果。

以这种方式配置的系统易受重试风暴的影响。当一个服务开始出现大于正常的故障率时,重试风暴开始。这会导致其客户端重试这些失败的请求。重试带来的额外负载,会导致服务进一步减速,并使更多请求失败,从而触发更多重试。如果每个客户端配置为最多重试3次,则可以将发送的请求数量翻两番!更糟糕的是,如果任何客户端的客户端配置了重试,则重试次数会成倍增加,并且可以将少量错误转化为自我造成的拒绝服务攻击。

为了避免这些问题,Linkerd使用重试预算。Linkerd不是为每个请求指定固定的最大重试次数,而是跟踪常规请求和重试之间的比率,并将此数字保持在限制之下。例如,您可以指定要重试最多添加20%的请求。然后,Linkerd将尽可能多地重试,同时保持该比率。

因此,使用重试预算可以明确在提高成功率和额外负载之间进行权衡。您的重试预算正是您的系统愿意从重试中接受的额外负载。

(最后,Linkerd的重试预算还包括允许的最小重试次数,这将是唯一允许的,与比率无关。这使得Linkerd可以在非常低的流量系统中重试。)

设置每个请求的超时

除了预算之外,重试还按每个请求的超时参数。超时可确保始终失败的请求最终会返回响应,即使该响应失败也是如此。超时时,Linkerd将取消请求并返回HTTP 504响应。

与重试预算类似,重试超时具有可在服务配置文件中覆盖的合理默认值:

- name: HEAD /authors/{id}.json    condition:      method: HEAD      pathRegex: /authors/[^/]*\\.json    timeout: 50ms

谁管有重试行为?客户端还是服务器?

您可能已经注意到上面的配置片段中的有趣内容。在“传统”重试系统(例如Web浏览器)中,是在客户端上配置重试行为,毕竟,这是重试实际发生的地方。但是在上面的服务配置文件中,我们将在服务器端指定重试政策。

能够将政策附加到服务器端,但客户端必须遵守该政策,这是Linkerd服务配置文件方法的基本优势之一。重试配置在逻辑上属于服务级别(“这是您应该和我说话的方式”)。由于Linkerd控制客户端和服务器行为,我们可以正确的方式执行此操作:服务配置文件允许服务准确发布“这是我希望您与我交谈的方式”,通过Linkerd的所有流量,无论来源如何,会尊重这种行为。太酷了!

把它们放在一起

我们已经展示了如何通过组合超时、预算和可重试性来配置Linkerd的重试行为。现在让我们将它们放在一起进行简短的演示。如果您有一个终端窗口和一个Kubernetes集群,您可以在家里跟随。

我们首先安装Linkerd和我们的样本书应用程序:

$ linkerd install | kubectl apply -f -$ curl https://run.linkerd.io/bookapp.yml | linkerd inject - | kubectl apply -f -$ linkerd check

关于这个应用程序,我们可以注意到的一件事是,从书籍服务到作者服务的请求的成功率非常低:

$ linkerd routes deploy/books --to svc/authorsROUTE       SERVICE   SUCCESS      RPS   LATENCY_P50   LATENCY_P95   LATENCY_P99[DEFAULT]   authors    54.24%   3.9rps           5ms          14ms          19ms

为了更好地了解这里发生了什么,让我们为作者服务添加一个服务配置文件,从Swagger定义生成:

$ curl https://run.linkerd.io/booksapp/authors.swagger | linkerd profile --open-api - authors | kubectl apply -f  -$ linkerd routes deploy/books --to svc/authorsROUTE                       SERVICE   SUCCESS      RPS   LATENCY_P50   LATENCY_P95   LATENCY_P99DELETE /authors/{id}.json   authors     0.00%   0.0rps           0ms           0ms           0msGET /authors.json           authors     0.00%   0.0rps           0ms           0ms           0msGET /authors/{id}.json      authors     0.00%   0.0rps           0ms           0ms           0msHEAD /authors/{id}.json     authors    50.85%   3.9rps           5ms          10ms          17msPOST /authors.json          authors     0.00%   0.0rps           0ms           0ms           0ms[DEFAULT]                   authors     0.00%   0.0rps           0ms           0ms           0ms

有一件事是清楚的,从书籍到作者的所有请求都是针对HEAD /authors/{id}.json路线,这些请求在大约50%的时间内失败。为了纠正这个问题,让我们编辑作者服务配置文件,并使这些请求可以重试:

$ kubectl edit sp/authors.default.svc.cluster.local[...]  - condition:      method: HEAD      pathRegex: /authors/[^/]*\\.json    name: HEAD /authors/{id}.json    isRetryable: true ### ADD THIS LINE ###

在编辑服务配置文件后,我们看到成功率几乎立即有所改善:

$ linkerd routes deploy/books --to svc/authors -o wideROUTE                       SERVICE   EFFECTIVE_SUCCESS   EFFECTIVE_RPS   ACTUAL_SUCCESS   ACTUAL_RPS   LATENCY_P50   LATENCY_P95   LATENCY_P99DELETE /authors/{id}.json   authors               0.00%          0.0rps            0.00%       0.0rps           0ms           0ms           0msGET /authors.json           authors               0.00%          0.0rps            0.00%       0.0rps           0ms           0ms           0msGET /authors/{id}.json      authors               0.00%          0.0rps            0.00%       0.0rps           0ms           0ms           0msHEAD /authors/{id}.json     authors             100.00%          2.8rps           58.45%       4.7rps           7ms          25ms          37msPOST /authors.json          authors               0.00%          0.0rps            0.00%       0.0rps           0ms           0ms           0ms[DEFAULT]                   authors               0.00%          0.0rps            0.00%       0.0rps           0ms           0ms           0ms

成功率看起来很好,但p95和p99延迟有所增加。这是可以预料到的,因为重试需要时间。但是,我们可以通过设置超时,Linkerd 2.x的另一个新功能,在我们愿意等待的最长持续时间来限制此操作。出于本演示的目的,我将设置25ms的超时。您的结果将根据系统的特性而有所不同。

$ kubectl edit sp/authors.default.svc.cluster.local[...]  - condition:      method: HEAD      pathRegex: /authors/[^/]*\\.json    isRetryable: true    name: HEAD /authors/{id}.json    timeout: 25ms ### ADD THIS LINE ###

我们现在看到成功率略有下降,因为有些请求超时,但尾部延迟已大大减少:

$ linkerd routes deploy/books --to svc/authors -o wideROUTE                       SERVICE   EFFECTIVE_SUCCESS   EFFECTIVE_RPS   ACTUAL_SUCCESS   ACTUAL_RPS   LATENCY_P50   LATENCY_P95   LATENCY_P99DELETE /authors/{id}.json   authors               0.00%          0.0rps            0.00%       0.0rps           0ms           0ms           0msGET /authors.json           authors               0.00%          0.0rps            0.00%       0.0rps           0ms           0ms           0msGET /authors/{id}.json      authors               0.00%          0.0rps            0.00%       0.0rps           0ms           0ms           0msHEAD /authors/{id}.json     authors              97.73%          2.9rps           49.71%       5.8rps           9ms          25ms          29msPOST /authors.json          authors               0.00%          0.0rps            0.00%       0.0rps           0ms           0ms           0ms[DEFAULT]                   authors               0.00%          0.0rps            0.00%       0.0rps           0ms           0ms           0ms

请注意,由于直方图分段工件,p99延迟似乎大于我们的25ms超时。

总结

在这篇文章中,我们描述了Linkerd如何以最小化系统风险的方式自动重试请求。我们描述了为什么在服务器,而不是客户端级别,指定了重试行为,我们向您介绍了如何在演示应用程序中部署服务的重试和超时功能。

重试是Linkerd可靠性路线图中的一大进步。服务配置文件、重试和诊断的交集是Linkerd特别令人兴奋的领域,您可以期待未来版本中。敬请期待!

喜欢这篇文章?Linkerd是一个社区项目,由CNCF托管。如果您有功能请求、问题或评论,我们很乐意让您加入我们快速发展的社区!Linkerd的,我们在Slack、Twitter和邮件列表上拥有一个蓬勃发展的社区。快来加入吧!


KubeCon + CloudNativeCon和Open Source Summit大会日期:

  • 会议日程通告日期:2019 年 4 月 10 日
  • 会议活动举办日期:2019 年 6 月 24 至 26 日

转载地址:http://vdrsl.baihongyu.com/

你可能感兴趣的文章
shell技巧之以逆序形式打印行
查看>>
Java面试题集(六)
查看>>
DCHP是什么意思
查看>>
go异常处理原则
查看>>
窗体传值
查看>>
跟我一起云计算(3)——hbase
查看>>
vim与外部文件的粘帖复制
查看>>
Entity Framework DBFirst尝试
查看>>
pojBuy Tickets2828线段树或者树状数组(队列中倒序插队)
查看>>
【BZOJ】1600: [Usaco2008 Oct]建造栅栏(dp)
查看>>
linux下启动oracle
查看>>
【原创】开源Math.NET基础数学类库使用(02)矩阵向量计算
查看>>
SqlHelper
查看>>
前端画面-下拉后滚动
查看>>
golang使用http client发起get和post请求示例
查看>>
remoting生命周期
查看>>
[zz]malloc()和calloc()
查看>>
Sylius – 100% 免费和开源的电子商务解决方案
查看>>
单片机系列学习
查看>>
BZOJ3571 : [Hnoi2014]画框
查看>>