紧急生产问题:线上kafka百万消息积压如何处理

   日期:2024-12-25    作者:jusoucn 移动:http://oml01z.riyuangf.com/mobile/quote/11698.html

大家在日常开发中,是否处理过大批量消息积压的问题

紧急生产问题:线上kafka百万消息积压如何处理

它一般由于代码bug(比如消费逻辑处理有误、或者生产者的生产速度大于消费者的消费速度(如大促、抢购等活动期间导致消息数量激增或者消费者处理速度极慢,就可能导致生产环境出现百万、甚至千万的消息积压。

那么,假设发生kafka百万消息堆积,如何解决呢

  • 先排查是不是bug,如果是,要快速修复

  • 优化消费者代码逻辑

  • 临时紧急扩容,新建临时topic

遇到消息积压问题时,我们需要先排查是不是有bug产生了,比如消费者未正确提交偏移量(Offset)。

消费者在处理完消息后未提交偏移量,导致重复消费或消费停滞。进而形成大量消息积压。

给个伪代码反例

 

在处理完消息后,要正确提交偏移量。

 
 

如果不是bug,那就可能是消费者速度不给力,导致的消息积压。我们可以优化一下消费者代码逻辑。

可以使用多线程处理,可以减少每条消息的处理时间(比如减少不必要的计算,从而提高消息处理速度。

假设消费者有两台机器,消费者代码优化前是,1秒处理100条消息。代码优化后l秒可以处理消息500条

一个小时,可以处理消息:2* 500 * 3600 = 3600 000

可以发现,如果累积了3百多万消息的话,处理完也要一个小时。如果是生产环境,一些比较敏感或者特殊的业务是不允许很长的时间延迟的。

业务紧急的话,我们可以临时紧急扩容,新建临时topic。

比如原来的topic 只有两个partition分区,因为消费者处理很耗时等操作,导致了百万消息积压,这时候需要紧急快速处理。

这时候,消费者的代码,我们可以做一些调整,就是不再处理其他业务操作。而是新建临时的topic,把消息转发到临时的topic,并且partition 分区增加到原来的 10倍

然后我们原来消费者业务逻辑处理的代码,放在新的临时消息那里处理。

等快速消费完积压数据之后,得恢复原先部署的架构,下掉临时消费者,重新用原先的 consumer 机器来消费消息。

对于线上kafka 消息大量积压的问题,我总结了这几点

  • 我们要做好监控和告警当消息积压到一定程度的时候,就要告警,通知负责人,提前处理。

  • 不要上来就新建临时topic,去快速处理大量积压问题。应该先排查是不是bug,优化消费者的代码

  • 如果消息设置了超时时间,因为百万消息积压没来得及处理就过期清理,可以设置定时任务拉起来重发一下


特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。


举报收藏 0评论 0
0相关评论
相关最新动态
推荐最新动态
点击排行
{
网站首页  |  关于我们  |  联系方式  |  使用协议  |  隐私政策  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号