性能文章>服务响应时间飙升问题排查记>

服务响应时间飙升问题排查记原创

4年前
8706015

这个case大概发生在一年前,现在拿出来给大家做个分享。

现象

下游有server服务上线一台机器,导致上游服务调用下游服务时间升高,young gc 增多,cpu利用率增高,但是从下游server服务看各项指标都很正常。

image.png

从client看调用下游服务监控

image.png
young gc监控

问题排查过程

因为是cpu飙升很多,于是就在监控系统cat上看了一下出问题时候的堆栈信息,关键信息如下:

image.png

看堆栈信息应该是加载类的时候未加载到,询问下游服务负责人是否在RPC接口中增加新的返回字段,被告知并没有。

再次查看服务本身,发现服务使用到了pigeon和thrift两种RPC框架,使用pigeon框架的服务接口都飙升了,而使用thrift框架的服务接口却是正常了。这样说明服务延迟上升不是由于cpu升高、young gc次数增多导致的。应该是其他原因导致的。cpu升高、young gc次数和服务响应时间升高都是结果。

作为RPC框架,他们基本上有类似的信息流向:

image.png

在业务逻辑监控下,发现业务逻辑的响应时间都是正常的,和业务逻辑没有关系。那么pigeon的接口飙升的原因基本上只能在I/O线程里。

查看pigeon这块源码发现,发现调用下游的服务都是共用了一个I/O线程,并且在I/O线程处理逻辑如下:

image.png

于是还是应该把着重点放在反序列化上,在反序列化方法上加上监控,准备上线时,却发现线上tomcat日志有以下错误:

image.png

很明显在序列化查找类的时候,找不到该类。再次联系下游服务是不是添加了ShopPic这个对象,他们再次查看代码确实在返回对象中添加了List<ShopPic> 对象类型。

让他们提供新的jar版本,服务升级后问题解决。

原理分析

因为pigeon服务在从下游拿到数据之后,需要进行反序列化,使用的反序列化方式是hession。hession在反序列化时,需要加载class,若class加载到了会缓存下来,加载不到会每次都会尝试再次加载。而添加的对象刚好又是list,里面的每个对象都会走“加载类,未找到,输出log”模式。而这一过程本身是比较耗cpu和时间的,并且生成不少临时变量。消耗时间会导致pigeon的I/O线程阻塞,进而导致其他pigeon服务延迟也升高。

总结

通常我们在做问题排查的时候,一般要先把所有的异常现象都给列举出来。然后查看这些现象本身是否有因果关系。确定某些现象有因果关系,那么就要把查看重点放在因。列举出独立的异常现象之后,可以先从比较容易着手的异常现象排查,有时候一个异常现象被找到解决,可能其他所有异常现象都会解决。

比如本例有3个异常表现:cpu升高、young gc次数增多、服务超时增多。cpu升高可能会导致服务超时增多,但是进程内所有的服务都应该受影响,不只是pigeon服务,所以排除这两者之间的因果关系。young gc次数增多会导致cpu略微升高,但是本例中不能就因此确定cpu升高就是young gc导致的。在本例中的3个异常表现中,cpu升高最好排查、服务超时增多次之、young gc次数增多最难排查。所以问题排查就应该按照先排查cpu问题、再排查服务超时问题、最后再是young gc次数增多。

点赞收藏
朱纪兵
请先登录,感受更多精彩内容
快去登录吧,你将获得
  • 浏览更多精彩评论
  • 和开发者讨论交流,共同进步

为你推荐

随机一门技术分享之Netty

随机一门技术分享之Netty

MappedByteBuffer VS FileChannel:从内核层面对比两者的性能差异

MappedByteBuffer VS FileChannel:从内核层面对比两者的性能差异

15
0