性能文章>用eBPF/bcc分析系统性能的一个简单案例>

用eBPF/bcc分析系统性能的一个简单案例原创

777409

bcc是eBPF的一种前端,当然这个前端特别地简单好用。可以直接在python里面嵌入通过C语言写的BPF程序,并帮忙产生BPF bytecode和load进入kernel挂载kprobe、tracepoints等上面执行。之后,还可以从python取出来C函数里面导出的maps数据以及per-event数据并进行打印。

image.png

我们特别看一下其中的bitehist.py例子:

image.png

上述程序通过kprobe截获了内核的blk_account_io_completion()函数,并将每个request的data_len转换为单位KBytes后,进行取对数,加入一个HISTOGRAM(属于maps中的一种),之后python会调用

b[“dist”].print_log2_hist(“kbytes”)
打印出这个hist图,从而可以给用户呈现出request磁盘请求的size分布情况:

image.png

另外一个经典的例子是通过kprobe截获函数的入口和返回点,得到函数的调用延迟:

image.png

上面的这个BPF C程序把在函数进入(kprobe)的时候,把当前时间加入一个start HASH(key是进程的pid,value是函数的开始时间),在函数出口的地方(kretprobe)通过start.loopup(&pid)取得函数入口时间,然后在函数出口的时候,把出口时间减去入口时间的结果求对数后放入一个HISTOGRAM。之后python可以获取这个HIST并打印:

image.png

这样可以呈现出延迟的热点分布。

anyway,了解了BPF c和python的语法后,这样的程序并不难写。但是,很多时候,其实我们并没有必要自己写代码,因为牛人们已经给我们写了很多现成的工具了。

比如,分析bio的延迟:

image.png

大量的延迟集中在512-1023和1024-2047之间。另外4096-8191也是这个multimodal延迟的另外一个热点。

这个东西就要比iostat命令更加细致靠谱一些,因为iostat命令只是简单地显示平均延迟啥的,并不显示延迟的分布情况,比如man iostat可以获知:

await - The average time (in milliseconds) for I/O requests issued to the device to be served. This includes the time spent by the requests in queue and the time spent servicing them.

但是,很多时候延迟呈现为一个multimodal的特点,会有多个峰值区域:

image.png

平均值,看起来,有时候没有那么accurate。比如一个班上的学生,平均分70分,但是无法呈现这个班的童鞋的如下特点:

  1. 有一堆差生都是30分左右

  2. 有一堆中等生都是60分左右

  3. 有一堆优等生都是90分左右

如果是HIST图的话,它的分布会类似:

image.png

看起来更加精确一些。

下面我们尝试用funclatency这个现成的工具来分析代码里面的usleep(100)究竟真正延迟多少,写一个最简单的应用程序,编译为a.out:

image.png

运行后,我们来得到usleep(100)调用内核do_nanosleep的真实延迟:

image.png

其实usleep(100)大面积集中在256-511us。所以,这个usleep(100)究竟有多准,天知道。

本文来自:Linux阅码场,作者:宋宝华

点赞收藏
分类:标签:
技术小助手
请先登录,感受更多精彩内容
快去登录吧,你将获得
  • 浏览更多精彩评论
  • 和开发者讨论交流,共同进步

为你推荐

从 Linux 内核角度探秘 JDK MappedByteBuffer

从 Linux 内核角度探秘 JDK MappedByteBuffer

9
0