我在看Cristian的时钟同步算法的讲义。
该算法规定了以下假设 。
假设一个客户端从服务器发送了一个时间同步的请求消息。
服务器将其当前时间的时间戳 T 并回复。
假设两者发送时间==接收时间,客户端将其时钟设置为T+(RTT2),其中RTT为往返时间。 它说这个精度在边界( T + min,T + RTT - min)。
我的证明,这是错误的 。
让发送传输时间Tc=min+x,其中x >=0。
这是因为术语x引入了一个不为我们所知的无界发送延迟。
让接收传输时间Ts = min + y,其中y >=0(y是一个类似于x的反向术语)。
因此设置客户端时钟的时间为T+Ts。
另外RTT=Tc+Ts=2min+x+y
当y=0时,所能设定的时间的最小可能界限=T+min。
可以设置的时间的最大可能界限=T + RTT - (min + x)。
由于T + RTT - (min + x) <= T + RTT - min,如果书本讲义中所说的边界是正确的,我们一定是将我们的时钟设置为比服务器的时间更多的时间。我到底错在哪里?
谢谢!