如何在 Linux 上模拟延迟和丢弃的数据包?

为了模拟延迟或丢失的包,我们可以使用netem,它为我们提供了有助于测试协议的网络模拟功能。

netem 的工作方式是通过模拟广域网的特性来测试协议。

netem有不同的版本,当前的稳定版本允许我们模拟数据包的可变延迟、丢失、重新排序和重复。

我们可以通过两种方式使用网络模拟器,第一种是最基本的方式,我们可以按照下面提到的简单步骤启用netem内核组件

Networking ->
   Networking Options ->
      QoS and/or fair queuing ->
         Network emulator

或者我们可以使用命令行,因为命令行工具“tc”用于netem内核。

让我们探索命令行工具tc的几个不同示例,我们将首先模拟大范围的网络延迟,然后我们将讨论数据包丢失。

模拟宽网络延迟

命令

# tc qdisc add dev eth0 root netem delay 100ms

现在,如果我们对本地网络上的主机进行简单的 ping 测试。然后我们会看到增加了 100 毫秒。延迟通常受内核时钟分辨率 (HZ) 的限制。

我们也可以在不更改qdisc 的情况下导致延迟,为此请考虑下面显示的命令 -

# tc qdisc change dev eth0 root netem delay 100ms 10ms

上述命令将导致添加的延迟为 100ms ± 10ms。

数据包丢失

我们可以在百分比的帮助下在 'tc' 命令中指定丢包率。

考虑下面显示的模拟相同的命令。

命令

# tc qdisc change dev eth0 root netem loss 0.1%

上述命令将导致 1/10%(即 1000 个中的 1 个)数据包被随机丢弃。