Cristian的时钟同步算法(t+RTT-min)的精度如何?

问题描述 投票:0回答:0

我在看Cristian的时钟同步算法的讲义。

该算法规定了以下假设 。

  • 客户端-服务器单向传输时间的最小值为 。min
  • 服务器在发送消息之前,会在最后一个可能的瞬间给消息打上时间戳。

假设一个客户端从服务器发送了一个时间同步的请求消息。

服务器将其当前时间的时间戳 T 并回复。

假设两者发送时间==接收时间,客户端将其时钟设置为T+(RTT2),其中RTT为往返时间。 它说这个精度在边界( T + min,T + RTT - min)。

我的证明,这是错误的 。

让发送传输时间Tc=min+x,其中x >=0。

这是因为术语x引入了一个不为我们所知的无界发送延迟。

让接收传输时间Ts = min + y,其中y >=0(y是一个类似于x的反向术语)。

因此设置客户端时钟的时间为T+Ts。

另外RTT=Tc+Ts=2min+x+y

当y=0时,所能设定的时间的最小可能界限=T+min。

可以设置的时间的最大可能界限=T + RTT - (min + x)。

由于T + RTT - (min + x) <= T + RTT - min,如果书本讲义中所说的边界是正确的,我们一定是将我们的时钟设置为比服务器的时间更多的时间。我到底错在哪里?

谢谢!

algorithm computer-science distributed-computing distributed-system
© www.soinside.com 2019 - 2024. All rights reserved.