我现在有一个网络实验,这个实验总共会跑100次,测出这100次所花费的
时间是多少,然后再算出这100次的平均是多少。我在做实验时,会使用 Linux 底下的
netem 工具去模拟 packet loss rate。
例如:
假设我设定packet loss rate = 25%,这表示每次在传送封包时,会有25%的机率遗失掉
,遗失掉后会再重传一次。
跑出来的平均数有可能是下面这样:
跑第一个100次的平均是 1.57 second
跑第二个100次的平均是 2.43 second
跑第三个100次的平均是 70.33 second
跑第四个100次的平均是 0.68 second
可以看到每次跑出来的平均数都不一样,有时候非常高,有时候又很低,教授问为什么每
次都不一样,
我的解释是因为我有设定packet loss rate = 25%,
当在测试时,如果每次封包都刚好loss掉,则测出来的时间就会变得很高;而如果每次封
包都刚好没有loss,则测出来的时间就会很低。
我想请问关于packet loss rate的解释,我这样解释是对的吗?
因为教授好像不是很满意这个解释,他希望每次出来的时间都要差不多。