文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

Linux 运维故障排查思路,有这篇文章就够了

2024-12-11 19:33

关注

1. 背景

有时候会遇到一些疑难杂症,并且监控插件并不能一眼立马发现问题的根源。这时候就需要登录服务器进一步深入分析问题的根源。那么分析问题需要有一定的技术经验积累,并且有些问题涉及到的领域非常广,才能定位到问题。所以,分析问题和踩坑是非常锻炼一个人的成长和提升自我能力。如果我们有一套好的分析工具,那将是事半功倍,能够帮助大家快速定位问题,节省大家很多时间做更深入的事情。

2. 说明

本篇文章主要介绍各种问题定位的工具以及会结合案例分析问题。

3. 分析问题的方法论

 

套用5W2H方法,可以提出性能分析的几个问题

 

4. cpu

4.1 说明

针对应用程序,我们通常关注的是内核CPU调度器功能和性能。

线程的状态分析主要是分析线程的时间用在什么地方,而线程状态的分类一般分为:

  1. on-CPU:执行中,执行中的时间通常又分为用户态时间user和系统态时间sys。

  2. off-CPU:等待下一轮上CPU,或者等待I/O、锁、换页等等,其状态可以细分为可执行、匿名换页、睡眠、锁、空闲等状态。

 

如果大量时间花在CPU上,对CPU的剖析能够迅速解释原因;如果系统时间大量处于off-cpu状态,定位问题就会费时很多。但是仍然需要清楚一些概念:

 

4.2 分析工具

 

说明:

 

4.3 使用方式

  1. //查看系统cpu使用情况top 
  2. //查看所有cpu核信息mpstat -P ALL 1 
  3. //查看cpu使用情况以及平均负载vmstat 1 
  4. //进程cpu的统计信息pidstat -u 1 -p pid 
  5. //跟踪进程内部函数级cpu使用情况 perf top -p pid -e cpu-clock 

5. 内存

5.1 说明

 

内存是为提高效率而生,实际分析问题的时候,内存出现问题可能不只是影响性能,而是影响服务或者引起其他问题。同样对于内存有些概念需要清楚:

 

5.2 分析工具

说明:

5.3 使用方式

  1. //查看系统内存使用情况free -m 
  2. //虚拟内存统计信息vmstat 1 
  3. //查看系统内存情况top 
  4. //1s采集周期,获取内存的统计信息pidstat -p pid -r 1 
  5. //查看进程的内存映像信息pmap -d pid 
  6. //检测程序内存问题valgrind --tool=memcheck --leak-check=full --log-file=./log.txt ./程序名 

6. 磁盘IO

6.1 说明

 

磁盘通常是计算机最慢的子系统,也是最容易出现性能瓶颈的地方,因为磁盘离 CPU 距离最远而且 CPU 访问磁盘要涉及到机械操作,比如转轴、寻轨等。访问硬盘和访问内存之间的速度差别是以数量级来计算的,就像1天和1分钟的差别一样。要监测 IO 性能,有必要了解一下基本原理和 Linux 是如何处理硬盘和内存之间的 IO 的。

 

在理解磁盘IO之前,同样我们需要理解一些概念,例如:

6.2 分析工具

6.3 使用方式

  1. //查看系统io信息iotop 
  2. //统计io详细信息iostat -d -x -k 1 10 
  3. //查看进程级io的信息pidstat -d 1 -p pid 
  4. //查看系统IO的请求,比如可以在发现系统IO异常时,可以使用该命令进行调查,就能指定到底是什么原因导致的IO异常perf record -e block:block_rq_issue -ag^Cperf report 

7. 网络

7.1 说明

 

网络的监测是所有 Linux 子系统里面最复杂的,有太多的因素在里面,比如:延迟、阻塞、冲突、丢包等,更糟的是与 Linux 主机相连的路由器、交换机、无线信号都会影响到整体网络并且很难判断是因为 Linux 网络子系统的问题还是别的设备的问题,增加了监测和判断的复杂度。现在我们使用的所有网卡都称为自适应网卡,意思是说能根据网络上的不同网络设备导致的不同网络速度和工作模式进行自动调整。

 

7.2 分析工具

7.3 使用方式

  1. //显示网络统计信息netstat -s 
  2. //显示当前UDP连接状况netstat -nu 
  3. //显示UDP端口号的使用情况netstat -apu 
  4. //统计机器中网络连接各个状态个数netstat -a | awk '/^tcp/ {++S[$NF]} END {for(a in S) print a, S[a]}' 
  5. //显示TCP连接ss -t -a//显示sockets摘要信息ss -s//显示所有udp socketsss -u -a//tcp,etcp状态sar -n TCP,ETCP 1 
  6. //查看网络IOsar -n DEV 1//抓包以包为单位进行输出tcpdump -i eth1 host 192.168.1.1 and port 80 //抓包以流为单位显示数据内容tcpflow -cp host 192.168.1.1 

8. 系统负载

8.1 说明

 

Load 就是对计算机干活多少的度量(WikiPedia:the system Load is a measure of the amount of work that a compute system is doing)简单的说是进程队列的长度。Load Average 就是一段时间(1分钟、5分钟、15分钟)内平均Load。

 

8.2 分析工具

8.3 使用方式

  1. //查看负载情况uptimetopvmstat 
  2. //统计系统调用耗时情况strace -c -p pid 
  3. //跟踪指定的系统操作例如epoll_waitstrace -T -e epoll_wait -p pid 
  4. //查看内核日志信息dmesg 

9. 火焰图

9.1 说明

 

火焰图(Flame Graph是 Bredan Gregg 创建的一种性能分析图表,因为它的样子近似 ?而得名。
火焰图主要是用来展示 CPU的调用栈。
y 轴表示调用栈,每一层都是一个函数。调用栈越深,火焰就越高,顶部就是正在执行的函数,下方都是它的父函数。
x 轴表示抽样数,如果一个函数在 x 轴占据的宽度越宽,就表示它被抽到的次数多,即执行的时间长。注意,x 轴不代表时间,而是所有的调用栈合并后,按字母顺序排列的。
火焰图就是看顶层的哪个函数占据的宽度最大。只要有”平顶”(plateaus),就表示该函数可能存在性能问题。颜色没有特殊含义,因为火焰图表示的是 CPU 的繁忙程度,所以一般选择暖色调。

 

常见的火焰图类型有 On-CPU、Off-CPU、Memory、Hot/Cold、Differential等等。

9.2 安装依赖库

  1. //安装systemtap,默认系统已安装yum install systemtap systemtap-runtime 
  2. //内核调试库必须跟内核版本对应,例如:uname -r 2.6.18-308.el5kernel-debuginfo-2.6.18-308.el5.x86_64.rpmkernel-devel-2.6.18-308.el5.x86_64.rpmkernel-debuginfo-common-2.6.18-308.el5.x86_64.rpm 
  3. //安装内核调试库debuginfo-install --enablerepo=debuginfo search kerneldebuginfo-install --enablerepo=debuginfo search glibc 

9.3 安装

  1. git clone https://github.com/lidaohang/quick_location.gitcd quick_location 

9.4 CPU级别火焰图

cpu占用过高,或者使用率提不上来,你能快速定位到代码的哪块有问题吗?

一般的做法可能就是通过日志等方式去确定问题。现在我们有了火焰图,能够非常清晰的发现哪个函数占用cpu过高,或者过低导致的问题。

9.4.1 on-CPU

 

 

cpu占用过高,执行中的时间通常又分为用户态时间user和系统态时间sys。
使用方式:

 

 

  1. //on-CPU usersh ngx_on_cpu_u.sh pid  
  2. //进入结果目录 cd ngx_on_cpu_u  
  3. //on-CPU kernelsh ngx_on_cpu_k.sh pid  
  4. //进入结果目录 cd ngx_on_cpu_k  
  5. //开一个临时端口 8088 python -m SimpleHTTPServer 8088//打开浏览器输入地址127.0.0.1:8088/pid.svg  

DEMO:

  1. #include  
  2. #include  
  3.  
  4. void foo3() 
  5. {   
  6.  
  7. void foo2(){   
  8.   int i;   
  9.   for(i=0 ; i < 10; i++)        
  10.     foo3(); 
  11.  
  12. void foo1() 
  13. {   
  14.   int i; 
  15.   for(i = 0; i< 1000; i++) 
  16.       foo3(); 
  17.  
  18. int main(void
  19. {   
  20.   int i;   
  21.   for( i =0; i< 1000000000; i++) {       
  22.     foo1();       
  23.     foo2();   
  24.   } 

DEMO火焰图:

9.4.2 off-CPU

cpu过低,利用率不高。等待下一轮CPU,或者等待I/O、锁、换页等等,其状态可以细分为可执行、匿名换页、睡眠、锁、空闲等状态。

使用方式:

  1. // off-CPU usersh ngx_off_cpu_u.sh pid 
  2. //进入结果目录cd ngx_off_cpu_u 
  3. //off-CPU kernelsh ngx_off_cpu_k.sh pid 
  4. //进入结果目录cd ngx_off_cpu_k 
  5. //开一个临时端口8088python -m SimpleHTTPServer 8088 
  6. //打开浏览器输入地址127.0.0.1:8088/pid.svg 

官网DEMO:

9.5 内存级别火焰图

如果线上程序出现了内存泄漏,并且只在特定的场景才会出现。这个时候我们怎么办呢?有什么好的方式和工具能快速的发现代码的问题呢?同样内存级别火焰图帮你快速分析问题的根源。

使用方式:

  1. sh ngx_on_memory.sh pid 
  2. //进入结果目录cd ngx_on_memory 
  3. //开一个临时端口8088python -m SimpleHTTPServer 8088 
  4. //打开浏览器输入地址127.0.0.1:8088/pid.svg 

官网DEMO:

9.6 性能回退-红蓝差分火焰图

你能快速定位CPU性能回退的问题么?如果你的工作环境非常复杂且变化快速,那么使用现有的工具是来定位这类问题是很具有挑战性的。当你花掉数周时间把根因找到时,代码已经又变更了好几轮,新的性能问题又冒了出来。主要可以用到每次构建中,每次上线做对比看,如果损失严重可以立马解决修复。

通过抓取了两张普通的火焰图,然后进行对比,并对差异部分进行标色:红色表示上升,蓝色表示下降。差分火焰图是以当前(“修改后”)的profile文件作为基准,形状和大小都保持不变。因此你通过色彩的差异就能够很直观的找到差异部分,且可以看出为什么会有这样的差异。

使用方式:

  1. cd quick_location 
  2. //抓取代码修改前的profile 1文件perf record -F 99 -p pid -g -- sleep 30perf script > out.stacks1 
  3. //抓取代码修改后的profile 2文件perf record -F 99 -p pid -g -- sleep 30perf script > out.stacks2 
  4. //生成差分火焰图:./FlameGraph/stackcollapse-perf.pl ../out.stacks1 > out.folded1./FlameGraph/stackcollapse-perf.pl ../out.stacks2 > out.folded2./FlameGraph/difffolded.pl out.folded1 out.folded2 | ./FlameGraph/flamegraph.pl > diff2.svg 

DEMO:

  1. //test.c 
  2. #include  
  3. #include  
  4.  
  5. void foo3() 
  6. {   
  7.  
  8. void foo2() 
  9. {   
  10.   int i;   
  11.   for(i=0 ; i < 10; i++) 
  12.       foo3(); 
  13.  
  14. void foo1() 
  15. {   
  16.   int i;   
  17.   for(i = 0; i< 1000; i++)  
  18.       foo3(); 
  19.  
  20. int main(void
  21. {   
  22.   int i; 
  23.   for( i =0; i< 1000000000; i++) { 
  24.       foo1(); 
  25.       foo2();   
  26.   } 
  27.  
  28. //test1.c 
  29. #include  
  30. #include  
  31.  
  32. void foo3() 
  33.  
  34.  
  35. void foo2() 
  36.   int i; 
  37.   for(i=0 ; i < 10; i++) 
  38.          foo3(); 
  39.  
  40. void foo1() 
  41. {   
  42.   int i;   
  43.   for(i = 0; i< 1000; i++)      
  44.     foo3(); 
  45.  
  46. void add() 
  47. {   
  48.   int i;   
  49.   for(i = 0; i< 10000; i++)      
  50.   foo3(); 
  51.  
  52. int main(void
  53. {   
  54.   int i;   
  55.   for( i =0; i< 1000000000; i++) { 
  56.     foo1(); 
  57.     foo2(); 
  58.     add(); 
  59.   } 

DEMO红蓝差分火焰图:

 

10. 案例分析

10.1 接入层nginx集群异常现象

 

通过监控插件发现在 2017.09.25 19 点nginx集群请求流量出现大量的499,5xx状态码。并且发现机器cpu使用率升高,目前一直持续中。

 

10.2 分析nginx相关指标

a) **分析nginx请求流量:

结论:

通过上图发现流量并没有突增,反而下降了,跟请求流量突增没关系。

b) **分析nginx响应时间

结论:

通过上图发现nginx的响应时间有增加可能跟nginx自身有关系或者跟后端upstream响应时间有关系。

c) **分析nginx upstream响应时间

结论:

通过上图发现nginx upstream 响应时间有增加,目前猜测可能后端upstream响应时间拖住nginx,导致nginx出现请求流量异常。

10.3 分析系统cpu情况

a) **通过top观察系统指标

top

结论:

发现nginx worker cpu比较高

b) **分析nginx进程内部cpu情况

  1. perf top -p pid 

结论:

发现主要开销在free,malloc,json解析上面

10.4 火焰图分析cpu
a) **生成用户态cpu火焰图

  1. //on-CPU usersh ngx_on_cpu_u.sh pid 
  2. //进入结果目录cd ngx_on_cpu_u 
  3. //开一个临时端口8088python -m SimpleHTTPServer 8088 
  4. //打开浏览器输入地址127.0.0.1:8088/pid.svg 

结论:

发现代码里面有频繁的解析json操作,并且发现这个json库性能不高,占用cpu挺高。

10.5 案例总结

a) 分析请求流量异常,得出nginx upstream后端机器响应时间拉长

b) 分析nginx进程cpu高,得出nginx内部模块代码有耗时的json解析以及内存分配回收操作

10.5.1 深入分析

根据以上两点问题分析的结论,我们进一步深入分析。

后端upstream响应拉长,最多可能影响nginx的处理能力。但是不可能会影响nginx内部模块占用过多的cpu操作。并且当时占用cpu高的模块,是在请求的时候才会走的逻辑。不太可能是upstram后端拖住nginx,从而触发这个cpu的耗时操作。

10.5.2 解决方式

遇到这种问题,我们优先解决已知的,并且非常明确的问题。那就是cpu高的问题。解决方式先降级关闭占用cpu过高的模块,然后进行观察。经过降级关闭该模块cpu降下来了,并且nginx请求流量也正常了。之所以会影响upstream时间拉长,因为upstream后端的服务调用的接口可能是个环路再次走回到nginx。

11.参考资料

 【编辑推荐】

  1. 1行代码实现Python数据分析:图表美观清晰,自带对比功能丨开源
  2. 印度电子商务新规遏制亚马逊、谷歌等本土称霸,72小时提交用户数据
  3. 数据不会说谎 锐捷云桌面与传统PC实战证实力
  4. Linux 内核编码规范将添加“包容性术语”准则
  5. 取代H.265/HEVC!H.266编解码标准发布:视频清晰度不变、数据量减半

 

来源:高效运维内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 历年真题答案解析
  • 备考技巧名师总结
  • 高频考点精准押题
  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     813人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     354人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     318人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     435人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     224人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-后端开发
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯