iis服务器助手广告广告
返回顶部
首页 > 资讯 > 操作系统 >Linux 网络延迟排查方法详解
  • 398
分享到

Linux 网络延迟排查方法详解

linux网络tcp/ip 2023-09-07 06:09:35 398人浏览 独家记忆
摘要

 概要   在 linux 服务器中,可以通过内核调优、DPDK 以及 XDP 等多种方式提高服务器的抗攻击能力,降低 DDoS 对正常服务的影响。在应用程序中,可以使用各级缓存、WAF、CDN 等来缓解 DDoS 对应用程序的影响。

e0eac0bf7c3f43238f387bf002e3e639.png


 概要

 

linux 服务器中,可以通过内核调优、DPDK 以及 XDP 等多种方式提高服务器的抗攻击能力,降低 DDoS 对正常服务的影响。在应用程序中,可以使用各级缓存、WAF、CDN 等来缓解 DDoS 对应用程序的影响。

但是需要注意的是,如果 DDoS 流量已经到达 Linux 服务器,那么即使应用层做了各种优化网络服务延迟一般也会比平时大很多。

因此,在实际应用中,我们通常使用 Linux 服务器,配合专业的流量清洗和网络防火墙设备,来缓解这个问题。

除了 DDoS 导致的网络延迟增加,我想你一定见过很多其他原因导致的网络延迟,例如:

  • 网络传输慢导致的延迟。

  • Linux 内核协议栈数据包处理速度慢导致的延迟。

  • 应用程序数据处理速度慢造成的延迟等。

那么当我们遇到这些原因造成的延误时,我们该怎么办呢?如何定位网络延迟的根本原因?让我们在本文中讨论网络延迟。

Linux 网络延迟

谈到网络延迟(Network Latency),人们通常认为它是指网络数据传输所需的时间。但是,这里的“时间”是指双向流量,即数据从源发送到目的地,然后从目的地地址返回响应的往返时间:RTT(Round-Trip Time)。

除了网络延迟之外,另一个常用的指标是应用延迟(Application Latency),它是指应用接收请求并返回响应所需的时间。通常,应用延迟也称为往返延迟,它是网络数据传输时间加上数据处理时间的总和。

通常人们使用ping命令来测试网络延迟,ping是基于 ICMP 协议的,它通过计算 ICMP 发出的响应报文和 ICMP 发出的请求报文之间的时间差来获得往返延迟时间。这个过程不需要特殊的认证,从而经常被很多网络攻击所利用,如,端口扫描工具nmap、分组工具hping3等。

因此,为了避免这些问题,很多网络服务都会禁用 ICMP,这使得我们无法使用 ping 来测试网络服务的可用性和往返延迟。在这种情况下,您可以使用traceroute或hping3的 tcp 和 UDP 模式来获取网络延迟。

例如:

# -c: 3 requests# -S: Set TCP SYN# -p: Set port to 80$ hping3 -c 3 -S -p 80 Google.comHPING google.com (eth0 142.250.64.110): S set, 40 headers + 0 data byteslen=46 ip=142.250.64.110 ttl=51 id=47908 sport=80 flags=SA seq=0 win=8192 rtt=9.3 mslen=46 ip=142.250.64.110 ttl=51 id=6788  sport=80 flags=SA seq=1 win=8192 rtt=10.9 mslen=46 ip=142.250.64.110 ttl=51 id=37699 sport=80 flags=SA seq=2 win=8192 rtt=11.9 ms--- baidu.com hping statistic ---3 packets transmitted, 3 packets received, 0% packet lossround-trip min/avg/max = 9.3/10.9/11.9 ms

当然,你也可以使用traceroute:

$ traceroute --tcp -p 80 -n google.comtraceroute to google.com (142.250.190.110), 30 hops max, 60 byte packets 1  * * * 2  240.1.236.34  0.198 ms * * 3  * * 243.254.11.5  0.189 ms 4  * 240.1.236.17  0.216 ms 240.1.236.24  0.175 ms 5  241.0.12.76  0.181 ms 108.166.244.15  0.234 ms 241.0.12.76  0.219 ms ...24  142.250.190.110  17.465 ms 108.170.244.1  18.532 ms 142.251.60.207  18.595 ms

traceroute会在路由的每一跳(hop)发送三个数据包,并在收到响应后输出往返延迟。如果没有响应或响应超时(默认 5s),将输出一个星号*。

案例展示

我们需要在此演示中托管 host1 和 host2 两个主机:

  • host1 (192.168.0.30):托管两个 Nginx WEB 应用程序(正常和延迟)

  • host2 (192.168.0.2):分析主机

host1 准备

在 host1 上,让我们运行启动两个容器,它们分别是官方 Nginx 和具有延迟版本的 Nginx:

# Official nginx$ Docker run --network=host --name=good -itd nginxfb4ed7cb9177d10e270f8320a7fb64717eac3451114c9fab3c50e02be2e88ba2# Latency version of nginx$ docker run --name nginx --network=host -itd feisky/nginx:latencyb99bd136dcfd907747d9c803fdc0255e578bad6d66f4e9c32b826d75b6812724

运行以下命令以验证两个容器都在为流量提供服务:

$ curl Http://127.0.0.1...

Thank you for using nginx.

$ curl http://127.0.0.1:8080...

Thank you for using nginx.

host2 准备

现在让我们用上面提到的hping3来测试它们的延迟,看看有什么区别。在 host2 中,执行以下命令分别测试案例机的 8080 端口和 80 端口的延迟:

80 端口:

$ hping3 -c 3 -S -p 80 192.168.0.30HPING 192.168.0.30 (eth0 192.168.0.30): S set, 40 headers + 0 data byteslen=44 ip=192.168.0.30 ttl=64 DF id=0 sport=80 flags=SA seq=0 win=29200 rtt=7.8 mslen=44 ip=192.168.0.30 ttl=64 DF id=0 sport=80 flags=SA seq=1 win=29200 rtt=7.7 mslen=44 ip=192.168.0.30 ttl=64 DF id=0 sport=80 flags=SA seq=2 win=29200 rtt=7.6 ms--- 192.168.0.30 hping statistic ---3 packets transmitted, 3 packets received, 0% packet lossround-trip min/avg/max = 7.6/7.7/7.8 ms

8080 端口:

# 测试8080端口延迟$ hping3 -c 3 -S -p 8080 192.168.0.30HPING 192.168.0.30 (eth0 192.168.0.30): S set, 40 headers + 0 data byteslen=44 ip=192.168.0.30 ttl=64 DF id=0 sport=8080 flags=SA seq=0 win=29200 rtt=7.7 mslen=44 ip=192.168.0.30 ttl=64 DF id=0 sport=8080 flags=SA seq=1 win=29200 rtt=7.6 mslen=44 ip=192.168.0.30 ttl=64 DF id=0 sport=8080 flags=SA seq=2 win=29200 rtt=7.3 ms--- 192.168.0.30 hping statistic ---3 packets transmitted, 3 packets received, 0% packet lossround-trip min/avg/max = 7.3/7.6/7.7 ms

从这个输出中您可以看到两个端口的延迟大致相同,均为 7 毫秒。但这仅适用于单个请求。如果换成并发请求怎么办?接下来,让我们用wrk (https://GitHub.com/wg/wrk) 试试。

80 端口:

$ wrk --latency -c 100 -t 2 --timeout 2 http://192.168.0.30/Running 10s test @ http://192.168.0.30/  2 threads and 100 connections  Thread Stats   Avg      Stdev     Max   +/- Stdev    Latency     9.19ms   12.32ms 319.61ms   97.80%    Req/Sec     6.20k   426.80     8.25k    85.50%  Latency Distribution     50%    7.78ms     75%    8.22ms     90%    9.14ms     99%   50.53ms  123558 requests in 10.01s, 100.15MB readRequests/sec:  12340.91Transfer/sec:     10.00MB

8080 端口:

$ wrk --latency -c 100 -t 2 --timeout 2 http://192.168.0.30:8080/Running 10s test @ http://192.168.0.30:8080/  2 threads and 100 connections  Thread Stats   Avg      Stdev     Max   +/- Stdev    Latency    43.60ms    6.41ms  56.58ms   97.06%    Req/Sec     1.15k   120.29     1.92k    88.50%  Latency Distribution     50%   44.02ms     75%   44.33ms     90%   47.62ms     99%   48.88ms  22853 requests in 10.01s, 18.55MB readRequests/sec:   2283.31Transfer/sec:      1.85MB

从以上两个输出可以看出,官方 Nginx(监听 80 端口)的平均延迟为 9.19ms,而案例 Nginx(监听 8080 端口)的平均延迟为 43.6ms。从延迟分布上来看,官方 Nginx 可以在 9ms 内完成 90% 的请求;对于案例 Nginx,50% 的请求已经达到 44ms。

那么这里发生了什么呢?我们来做一些分析:

在 host1 中,让我们使用tcpdump捕获一些网络数据包:

$ tcpdump -nn tcp port 8080 -w nginx.pcap

现在,在 host2 上重新运行wrk命令

$ wrk --latency -c 100 -t 2 --timeout 2 http://192.168.0.30:8080/

当wrk命令完成后,再次切换回 Terminal 1(host1 的终端)并按 Ctrl+C 结束tcpdump命令。然后,用Wireshark把抓到的nginx.pcap复制到本机(如果 VM1(host1 的虚拟机)已经有图形界面,可以跳过复制步骤),用Wireshark打开。

由于网络包的数量很多,我们可以先过滤一下。例如,选中一个包后,可以右键选择 “Follow”->“TCP Stream”,如下图:

af595940e039426288332a0fc6f871bc.jpeg

 然后,关闭弹出的对话框并返回Wireshark主窗口。这时你会发现Wireshark已经自动为你设置了一个过滤表达式tcp.stream eq 24。如下图所示(图中省略了源 IP 和目的 IP):

731b34ec58c04dddb2f6b86bd7690e90.jpeg

 从这里,您可以看到从三次握手开始,此 TCP 连接的每个请求和响应。当然,这可能不够直观,可以继续点击菜单栏中的 Statistics -> Flow Graph,选择 “Limit to display filter”,将 Flow type 设置为 “TCP Flows”:

b854c76ad5034e0390e51ffeb243ab2f.jpeg

 请注意,此图的左侧是客户端,而右侧是 Nginx 服务器。从这个图中可以看出,前三次握手和第一次 HTTP 请求和响应都相当快,但是第二次 HTTP 请求就比较慢了,尤其是客户端收到服务器的第一个数据包后,该 ACK 响应(图中的蓝线)在 40ms 后才被发送。

看到 40ms 的值,你有没有想到什么?事实上,这是 TCP 延迟 ACK 的最小超时。这是 TCP ACK 的一种优化机制,即不是每次请求都发送一个 ACK,而是等待一段时间(比如 40ms),看看有没有“搭车”的数据包。如果在此期间还有其他数据包需要发送,它们将与 ACK 一起被发送。当然,如果等不及其他数据包,超时后会单独发送 ACK。

由于案例中的客户端发生了 40ms 延迟,我们有理由怀疑客户端开启了延迟确认机制(Delayed Acknowledgment Mechanism)。这里的客户端其实就是之前运行的 wrk。

根据 TCP 文档,只有在 TCP 套接字专门设置了 TCP_QUICKACK 时才会启用快速确认模式(Fast Acknowledgment Mode);否则,默认使用延迟确认机制:

TCP_QUICKACK (since Linux 2.4.4)              Enable  quickack mode if set or disable quickack mode if cleared.  In quickack mode, acks are sent imme‐              diately, rather than delayed if needed in accordance to nORMal TCP operation.  This flag is  not  perma‐              nent,  it only enables a switch to or from quickack mode.  Subsequent operation of the TCP protocol will              once again enter/leave quickack mode depending on internal  protocol  processing  and  factors  such  as              delayed ack timeouts occurring and data transfer.  This option should not be used in code intended to be              portable.

让我们测试一下我们的质疑:

$ strace -f wrk --latency -c 100 -t 2 --timeout 2 http://192.168.0.30:8080/...setsockopt(52, SOL_TCP, TCP_nodeLAY, [1], 4) = 0...

可以看到wrk只设置了TCP_NODELAY选项,没有设置TCP_QUICKACK。现在您可以看到为什么延迟 Nginx(案例 Nginx)响应会出现一个延迟。

 

结论

在本文中,展示了如何分析增加的网络延迟。网络延迟是核心网络性能指标。由于网络传输、网络报文处理等多种因素的影响,网络延迟是不可避免的。但过多的网络延迟会直接影响用户体验。

  • 使用hping3和wrk等工具确认单个请求和并发请求的网络延迟是否正常。

  • 使用traceroute,确认路由正确,并查看路由中每个网关跳跃点的延迟。

  • 使用tcpdump和Wireshark确认网络数据包是否正常收发。

  • 使用strace等观察应用程序对网络 Socket 的调用是否正常。

 
欢迎点赞收藏转发,感谢🙏

-End-

 

 

来源地址:https://blog.csdn.net/Rocky006/article/details/131609125

--结束END--

本文标题: Linux 网络延迟排查方法详解

本文链接: https://www.lsjlt.com/news/397765.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
  • Linux 网络延迟排查方法详解
     概要   在 Linux 服务器中,可以通过内核调优、DPDK 以及 XDP 等多种方式提高服务器的抗攻击能力,降低 DDoS 对正常服务的影响。在应用程序中,可以使用各级缓存、WAF、CDN 等来缓解 DDoS 对应用程序的影响。 ...
    99+
    2023-09-07
    linux 网络 tcp/ip
  • Win10网络延迟高该怎么办?Win10网络延迟高的解决方法
    坚信许多朋友们都早已应用Win10操作系统的电脑上好长时间了,在长期的应用中都会碰到网络延迟高的状况,那麼碰到这类问题该怎么办呢?下边就和小编一起来看一下有哪些解决方法吧。Win10网络延迟高的解决方法最先按住键盘快捷键“win+r”键入“...
    99+
    2023-07-11
  • C++实现延迟的方法详解
    目录1、stl方式2、用boost实现, 没有用过3、sleep知识补充1、stl方式 std::this_thread::sleep_for(std::chrono::millis...
    99+
    2022-12-27
    C++实现延迟 C++延迟
  • windows网络延迟高如何解决
    本篇内容主要讲解“windows网络延迟高如何解决”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“windows网络延迟高如何解决”吧!网络延迟高解决方法:首先按下快捷键“win+r”输入“gpe...
    99+
    2023-07-02
  • 阿里云服务器网络延迟解决方案
    阿里云服务器网络延迟是一个常见的问题,可能会导致网站加载速度慢、应用响应时间长等问题。本文将介绍几种常见的解决阿里云服务器网络延迟的方法,包括优化服务器硬件配置、调整服务器软件设置、使用CDN加速等。 方法一:优化服务器硬件配置服务器的硬件...
    99+
    2024-01-24
    阿里 解决方案 服务器
  • windows7系统中网络延迟问题的多种解决方法
    网络延迟的现象不知道在大家的电脑里频不频繁,如果很频繁出现这个问题的话,那就要动手来解决了,那么肯定会有很多用户要问:我要怎样才能解决Win7网络延迟问题啊 QoS是什么呢QoS(Quality of Service)服...
    99+
    2023-05-30
    win7 网络延迟 延迟 问题 网络 系统 解决
  • 阿里云服务器如何延迟一天详解延迟原因及解决方法
    在使用阿里云服务器的过程中,可能会遇到一些延迟问题。如果阿里云服务器延迟一天,可能会影响到您的业务运行和数据安全。本文将详细介绍阿里云服务器延迟一天的原因,以及提供一些解决方法。 阿里云服务器延迟一天的原因:网络问题:可能是由于网络问题导致...
    99+
    2023-11-07
    阿里 解决方法 详解
  • win7玩网络游戏延迟高怎么解决
    这篇文章主要介绍“win7玩网络游戏延迟高怎么解决”,在日常操作中,相信很多人在win7玩网络游戏延迟高怎么解决问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”win7玩网络游戏延迟高怎么解决”的疑惑有所帮助!...
    99+
    2023-06-28
  • 云服务器网络延迟高怎么解决
    云服务器网络延迟高的原因可能是多方面的,可以尝试以下几个方法来解决:1.选择合适的地理位置:云服务器的地理位置对网络延迟有很大影响,...
    99+
    2023-09-22
    云服务器
  • 如何解决美国服务器网络延迟
    解决美国服务器网络延迟的方法:1.引进国际专线接入,以便于直接访问国际互联网;2.全优化中国大陆方向上的带宽资源,优化中国大陆方向的带宽;3.CDN加速处理,改善网络访问质量,提高网站服务的承载能力及网站运行的安全性;具体方法如下:引进国际...
    99+
    2024-04-02
  • Linux时间延迟及延缓操作方法是什么
    这篇文章主要讲解了“Linux时间延迟及延缓操作方法是什么”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“Linux时间延迟及延缓操作方法是什么”吧!在内核中计时的头函数是#includeHz...
    99+
    2023-06-17
  • Java实现异步延迟队列的方法详解
    目录1.应用场景2.延时处理方式调研1.DelayQueue2.延迟队列mq3.定时任务4.redis5. 时间轮3.实现目标4.架构设计5.延迟组件实现方式1.实现原理2.消息结构...
    99+
    2023-03-22
    Java异步延迟队列 Java延迟队列
  • mongodb云服务器网络延迟高怎么解决
    解决 MongoDB 云服务器网络延迟高的问题,可以尝试以下方法:1. 选择就近的数据中心:选择一个距离用户最近且网络质量良好的数据...
    99+
    2023-09-21
    云服务器 mongodb
  • 国外网络服务器延迟高如何解决
    国外网络服务器延迟高解决方法:1、给国外服务器引进国际专线接入,能够有效降低访问速度慢的问题;2、对国外服务器大陆方向的带宽资源进行优化,从而提高国内访问速度;3、给国外服务器接入CDN加速处理,改善网络环境;4、将国外服务器上的网站业务搬...
    99+
    2024-04-02
  • PHP实现异步延迟消息队列的方法详解
    目录一、前言二、场景三、安装RabbitMQ延迟队列插件四、在Laravel框架中进行使用五、执行生产消息和消费消息一、前言 需求:电商秒杀场景中,如果用户下单10分钟未支付,需要进...
    99+
    2024-04-02
  • 如何解决美国服务器的网络延迟问题
    解决美国服务器网络延迟的方法:1、引进国际专线接入,降低访问速度延迟问题;2、对中国大陆方向带宽进行全面的优化;3、给美国服务器接入CDN加速服务,提高网络速度,改善网络访问质量。具体内容如下:引进国际专线接入国际专线接入是指建立专门的网络...
    99+
    2024-04-02
  • 阿里云服务器低延迟网络异常原因与解决方案
    随着互联网的发展,越来越多的企业开始将业务迁移到云服务器上,以提高业务的灵活性和效率。然而,阿里云服务器低延迟网络异常成为了许多用户面临的问题。这篇文章将探讨阿里云服务器低延迟网络异常的原因,并提供相应的解决方案。 阿里云服务器低延迟网络异...
    99+
    2023-10-29
    阿里 异常 解决方案
  • 云服务器延迟高的解决方法
    1. 优化网络配置 网络配置是影响云服务器延迟的一个重要因素。以下是一些优化网络配置的方法: 使用高速、可靠的网络连接:选择可靠的云服务提供商,并确保其网络基础设施具备高速和稳定的特点。 使用负载均衡器:通过使用负载均衡器,将流量分发到...
    99+
    2023-10-27
    解决方法 服务器
  • linux查看网络ip地址的方法
    linux中查看网络ip地址的方法:1、打开linux终端;2、使用“route”或者“netstat”命令查看网络ip地址即可。具体操作步骤:在linux系统桌面下,使用快捷键【Ctrl+Alt+T】打开终端命令行模式。在linux终端命...
    99+
    2024-04-02
  • RabbitMQ实现延迟队列的两种方式详解
    目录1. 用插件1.1 安装插件1.2 消息收发2. DLX 实现延迟队列2.1 延迟队列实现思路2.2 案例3. 小结定时任务各种各样,常见的定时任务例如日志备份,我们可能在每天凌...
    99+
    2024-04-02
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作