惊魂72h!K8s升级后,Java应用集体“自杀”,竟因为这个“隐形杀手”……

ClayWangzhi 2025-08-19 11:48:00

 
 

导语:本以为是一次平平无奇的K8s集群升级:更高版本、更潮的操作系统(Ubuntu 22.04替换CentOS 7.9)。谁曾想,当业务迁移启动,部分Java应用竟接连崩溃,报错 OOMKilled!内存限制从2Gi加到8Gi才勉强活过来,但资源消耗异常飙升,还有个神秘的磁盘写入在捣鬼... 一场由 cgroup v2 引发的“血案”,就此拉开序幕!运维人带你直击排查现场,避开这个大坑!

 
 

 

一、案发现场:升级后的离奇“命案”

 

为了拥抱云原生未来,我们精心策划了这次大升级:

 

  • K8s版本: 升级到更高版本。

  • 操作系统: 告别老将 CentOS 7.9,拥抱新锐 Ubuntu 22.04.4。

 

迁移过程本应丝滑,谁知部分 Java应用 刚踏上新集群的土地,就惨遭“毒手”!kubectl describe pod 揭示的死亡报告触目惊心:

 

  •  
  •  
  •  
    Last State:     Terminated      Reason:       OOMKilled  // 死于内存溢出!      Exit Code:    137        // 典型的OOM退出码

 

悬念点: 为什么是“部分”应用?新环境到底隐藏着什么?

 

二、紧急抢救:加内存,治标不治本!

 

面对 OOMKilled,第一反应很直接:内存不够?那就加!

 

  • 简单粗暴: 将 Pod 的 MEM Limits 从 2Gi 暴力提升到 8Gi。

  • 结果: 应用... 居然真的启动了! (暂时松了一口气)

 

BUT! 真的解决了吗?监控数据很快泼来冷水:

 

1、资源消耗异常: CPU、内存、线程数统统飙高,远超正常运行的兄弟Pod。

 

2、神秘磁盘写入: 更诡异的是,监控捕捉到异常的磁盘写入活动,连 strace 都追踪不到来源!

 

3、成本飙升预警: 每个应用都靠狂吃资源续命?这成本谁扛得住?这绝不是长久之计!

 

读者共鸣点: “加内存”是运维人的本能反应,但这里明显不对劲,成本问题和诡异现象让人揪心,迫切想知道真相。

 

三、抽丝剥茧:锁定“元凶”—— JVM 的认知偏差

 

关键线索指向了 JVM 对资源的认知。我们祭出神器 jcmd <PID> VM.flags,对比 正常Pod 和 异常Pod 的JVM参数:

 

  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
#  健康宝宝 (2c2g Pod,参数合理)-XX:CICompilerCount=2           # 编译器线程数 ≈ CPU核数-XX:InitialHeapSize=33554432    # 初始堆≈32MB-XX:MaxHeapSize=536870912       # 最大堆≈512MB (远小于2Gi限制)... (其他参数略) ...
#  异常患者 (同样是2c2g Pod,参数“疯了”!)-XX:CICompilerCount=15          # 编译器线程数=15?! (远超2核)-XX:InitialHeapSize=2147483648  # 初始堆=2GB?! (直接吃满限制)-XX:MaxHeapSize=32210157568     # 最大堆≈30GB?! (做梦呢?)... (其他参数略) ...

 

真相大白!

 

  • 异常Pod里的JVM,完全无视了Pod的2c2g限制!

  • 它以为自己运行在一个拥有海量CPU和内存(几十GB!) 的土豪主机上!

  • 于是它“自信满满”地按照这个错误的认知去分配资源(超大堆、超多线程),结果瞬间触发 OOMKilled。

  • 即使我们强塞给它8Gi内存,它也只是勉强启动,但运行效率低下且浪费资源(编译器线程15个抢2个核?不慢才怪!),神秘的磁盘写入也可能与此相关(比如频繁GC或交换)。

 

“啊哈”时刻: 通过对比参数,读者瞬间理解问题核心——JVM“看错了世界”。技术细节清晰,对比直观。

 

四、真凶浮现:cgroup v2 的“水土不服”

 

为什么JVM会“看走眼”?根源在于新操作系统 Ubuntu 22.04 默认启用了 cgroup v2,而旧系统 CentOS 7.9 使用的是 cgroup v1。

 

  • 关键点: 许多旧版/未更新的Java运行时 (JVM) 和依赖库,无法正确识别 cgroup v2 的资源限制! 它们还活在 cgroup v1 的世界观里。

  • 悬疑点:部分应用 OK 的原因在于,设置了 JVM 参数Xmx等,可参考,京东技术「JVM线程和内存参数合理性设置 」https://cloud.tencent.com/developer/article/2317441

 

五、终极解决方案:两条明路

 

 
方案一:升级!拥抱 cgroup v2 (推荐,面向未来)

 

Cgroup v2 简化了目录结构,支持了 Memory Qos。

 

确保你的 Java运行时 和 关键依赖库 升级到完全支持 cgroup v2 的版本:

 

运行时名称
支持 cgroup v2 的最低版本
OpenJDK / HotSpot JDK 8u372, 11.0.16, 15 及更高
IBM Semeru Runtimes 8.0.382.0, 11.0.20.0, 17.0.8.0 及更高
IBM Java 8.0.8.6 及更高
uber-go/automaxprocs v1.5.1 或更高
 (Go应用常用,用于设置GOMAXPROCS)

 

行动号召: 检查你的基础镜像和依赖!这是最彻底的解决之道。

 

 
方案二:回退!切回 cgroup v1 (临时/兼容性方案)

 

如果暂时无法升级所有应用,可以将Ubuntu节点切回 cgroup v1:

 

1)确认当前cgroup版本:

 

  •  
stat -fc %T /sys/fs/cgroup/

 

  • 输出 cgroup2fs -> v2

  • 输出 tmpfs -> v1

 

2)修改 /etc/default/grub:

 

找到 GRUB_CMDLINE_LINUX 行,在引号内的参数末尾 添加:

 

  •  
systemd.unified_cgroup_hierarchy=0

 

(例如:GRUB_CMDLINE_LINUX="...原有参数... systemd.unified_cgroup_hierarchy=0")

 

3)更新配置并重启:

 

  •  
  •  
sudo update-grubsudo reboot

 

4)重启后验证: 再次运行 stat -fc %T /sys/fs/cgroup/ 应输出 tmpfs (v1)。

 

重要: 将此修改固化到你的主机装机模版中,确保新节点也是 v1。

 

六、结语

 

这次由 CentOS -> Ubuntu 升级 引发的 OOMKilled 连环案,核心就是 cgroup v2 兼容性问题。看似简单的OOM,背后藏着JVM对新世界认知的偏差。排查过程再次印证:监控指标对比、底层参数检查 (jcmd VM.flags) 是定位疑难杂症的利器。

 

抛砖引玉,评论区等你!

 

  • 操作系统选型: CentOS停服后,你选择了Ubuntu、Rocky、Alma还是其他?为什么?踩过什么坑?

  • 操作系统优化: 针对K8s节点,Ubuntu 22.04 有哪些必做的优化项?

  • K8s 升级踩坑记: 你在升级K8s大版本时,还遇到过哪些让人头秃的“惊喜”?

 

 
作者丨ClayWangzhi
来源丨公众号:SRE运维进阶之路(ID:sre-k8s)
dbaplus社群欢迎广大技术人员投稿,投稿邮箱:editor@dbaplus.cn
最新评论
访客 2024年04月08日

如果字段的最大可能长度超过255字节,那么长度值可能…

访客 2024年03月04日

只能说作者太用心了,优秀

访客 2024年02月23日

感谢详解

访客 2024年02月20日

一般干个7-8年(即30岁左右),能做到年入40w-50w;有…

访客 2023年08月20日

230721

活动预告