我们被一个 kong 的性能 bug 折腾了一个通宵
故事背景
在 Erda 的技术架构中,我们使用了 kong 作为 API 网关的技术选型。因其具备高并发低延时的特性,同时结合了 Kubernetes Ingress Controller,基于云原生的声明式配置方式,能够实现丰富的 API 策略。
一系列失败的尝试
参数调优
NGINX_WORKER_PROCESSES
、MEM_CACHE_SIZE
、 DB_UPDATE_FREQUENCY
、WORKER_STATE_UPDATE_FREQUENCY
参数以及 postgres 的 work_mem
、 share_buffers
都进行了适当的调优。
但是,没有任何效果 😓。
清理数据
kong 实例的读写分离
确定了是 admin 接口的原因后,我们决定将 admin 跟业务的 kong 实例分开,希望 admin 的调用不会影响到业务的正常流量访问,期待达到 kong 的 admin 接口慢就慢吧,但是不要影响业务的访问性能。
然而,没有任何效果😫。
postgres 迁移 RDS
kong 层面的努力无果之后,我们在测试过程中同时观察到了当调用 admin 接口试,postgres 的进程也增多了很多,CPU使用率也涨了起来,也是决定将 pg 迁移到 更为专业的RDS中。
还是,没有任何效果😭。
回滚
最终我们还是回滚到了 0.14 版本,追求暂时“心灵的宁静”。
至此,线上的尝试基本搞一段落,也大致摸清了问题复现的条件,于是我们决定在线下构造一个环境来继续找出问题的原因。
问题的复现之路
导入数据
我们将有问题的集群中的 postgre 的数据备份之后然后在一个新的集群中导入:
psql -h 127.0.0.1 -U kong < kong.sql
并且开启 kong 的 prometheus 插件, 方便使用 grafana 来查看性能图标:
curl -X POST http://10.97.4.116:8001/plugins --data "name=prometheus"
现象一
curl http://10.97.4.116:8001
现象二
然后我们来模拟在线上遇到的调用 admin 接口后业务访问性能变差的现象,先调用 admin 接口创建个业务的 api,以供测试,我们创建了一个 service 以及一个 routes:
curl -i -X POST http://10.97.4.116:8001/services/ -d 'name=baidu2' -d 'url=http://www.baidu.com'
curl -i -X POST http://10.97.4.116:8001/services/baidu2/routes \
-d "name=test2" \
-d "paths[1]=/baidu2"
后面可以使用 curl http://10.97.4.116:8000/baidu2
来模拟业务接口进行测试。
准备 admin 接口的测试脚本, 创建并删除一个 service/route,中间穿插一个 service list。
#!/bin/bash
curl -i -X POST http://10.97.4.116:8001/services/ -d 'name=baidu' -d 'url=http://www.baidu.com'
curl -i -X POST http://10.97.4.116:8001/services/baidu/routes \
-d "name=test" \
-d "paths[1]=/baidu"
curl -s http://10.97.4.116:8001/services
curl -i -X DELETE http://10.97.4.116:8001/services/baidu/routes/test
for i in `seq 1 100`; do sh 1.sh ; done
curl http://10.97.4.116:8000/baidu2
伴随现象
-
kong 实例的 cpu 跟 mem 都持续上涨,且当 admin 接口调用结束后此现象依然没有结束。mem 上涨到一定程度会到时 nginx worker 进程 oom 掉,然后重启,这个也许是访问慢的原因;
-
我们设置了
KONG_NGINX_WORKER_PROCESSES
为 4,并且为 pod 的内存为 4G 的时候,pod 的整体内存会稳定在 2.3G, 但是 调用 admin 接口试,pod 的内存就会一直上涨至超过 4G,触发 worker 的 OOM,于是我将 pod 的内存调整到了 8G。再次调用 admin 接口,发现 pod 的内存依然一直上涨,只是上涨到了 4.11 G 就结束了,这似乎意味着我们是要设置 pod 的内存为KONG_NGINX_WORKER_PROCESSES
两倍,这个问题就解决了(但是还有个重要的问题是为什么调用一次 admin 接口,会导致内存涨了那么多); -
另外,当我持续调用 admin 接口的时候, 最终的内存会持续增长并且稳定到 6.9G。
这个时候我们将问题抽象一下:
继续调查内存是被什么占用了:
pmap -x [pid]
前后两次查看了 worker 进程的内存分布,变化的是第二张如中框起来来的部分,从地址上看整块内存都被换过了,但是将内存数据导出并且字符串化之后,没有什么有效的信息可供进一步排查。
结论
-
该问题跟 kong 的升级(0.14 --> 2.2.0) 没有关系,直接使用 2.2.0 版本也会有这个问题; -
kong 每隔 worker_state_update_frequency
时间后会在内存中重建 router,一旦开始重建就会导致 内存上涨,看了下代码问题出在了Router.new
的方法这里,会申请 lrucache 但是使用后没有flush_all
,根据最新的 2.8.1 版本的 lrucache 进行了释放问题依然存在; -
也就是 kong 的 Router.new
方法里的其他逻辑到时的内存上涨;
-
这也就表明这个问题是 kong 存在的一个性能 bug,及时在最新的版本中依然存在,当 route 跟 service 达到某个量级的时候会出现调用 admin 接口,导致 kong 的 worker 内存迅速上涨,使得 oom 进而引发业务访问性能变差的现象,临时的解决办法可以是减少 NGINX_WORKER_PROCESSES
的数量并且增加 kong pod 的内存量,保证调用 admin 接口后需要的内存足够使用不触发 oom,才能保证业务的正常使用。
- 点赞
- 收藏
- 关注作者
评论(0)