摘要
凌晨三点,告警响起:“订单服务 Full GC 次数异常”。登录服务器一看,Full GC 每隔 3 分钟就触发一次,每次停顿 3 秒以上,用户下单开始超时。本案例从 GC 日志分析入手,定位出老年代持续增长的根本原因——大量短生命周期对象因 Survivor 太小而被过早晋升。通过调整 SurvivorRatio 和晋升阈值,配合代码层面的对象池优化,将 Full GC 频率从每 3 分钟降到每 8 小时,运行稳定至今。
一、问题背景
1.1 业务场景
某电商平台的订单服务,部署在 4 核 8GB 的物理机上,运行 JDK 8u302,使用 G1 GC。正常情况下 QPS 约 2000,大促期间峰值 15000。
1.2 故障现象
告警信息: [2026-03-15 03:00:00] Full GC 次数超过阈值(当前 15次/小时,阈值 5次/小时) [2026-03-15 03:05:00] 接口 TP99 响应时间 > 5s(正常 < 200ms) [2026-03-15 03:08:00] 服务开始拒绝请求,连接池耗尽 运维操作: 1. 重启服务 → 临时恢复 2. 30 分钟后再次出现同样问题 3. 陷入"重启循环"1.3 原始配置
# 发现问题时的 JVM 配置-server-Xms8g-Xmx8g-XX:+UseG1GC-XX:MaxGCPauseMillis=200-XX:NewRatio=2# 年轻代 2.7GB,老年代 5.3GB-XX:SurvivorRatio=8# Survivor 各 300MB(极小!)-XX:MetaspaceSize=256m -Xlog:gc*:file=/var/log/gc.log-XX:+HeapDumpOnOutOfMemoryError二、问题分析
2.1 GC 日志分析
# Full GC 日志片段 2026-03-15T03:00:00.123+0800: 12345.678: [Full GC (Allocation Failure) [GC pause (G1 Evacuation Pause) (young) (to-space overflow) ... [Root Region Scan Waiting: 0.0 ms] [Code Root Fixup: 0.1 ms] [Clear CT: 0.2 ms] [Other: 123.4 ms] 4567.8 ms]# 关键指标提取 # 从日志中提取的 GC 统计: # - Minor GC 频率:每 15 秒一次 # - Minor GC 回收量:约 800MB # - 晋升到老年代的对象量:约 500MB/次 # - 老年代从 3GB 增长到 5.3GB 只需:约 3GB / 500MB * 15s = 90s(但实际是 3 分钟) # → 问题:Minor GC 频率低,但晋升量大,说明 Survivor 太小2.2 jstat 验证
# 在问题发生时执行 jstat$ jstat-gcutil12345100010# 输出(取最后一行):# S0 S1 E O M YGC YGCT FGC FGCT GCT# 98.50 0.00 85.00 95.50 82.30 245 45.67 189 234.56 280.23# 解读:# S0 = 98.5% → Survivor 0 几乎满了!# O = 95.5% → 老年代使用率 95.5%,接近 OOM# FGC = 189 → Full GC 已经发生 189 次# FGCT = 234s → Full GC 总耗时 234 秒(约 1.2 秒/次)2.3 jmap 堆直方图
# 堆直方图分析$ jcmd12345GC.class_histogram|head-30# 占用最大的对象类型:# num #instances #bytes class name# 1 1234567 98765432 [Ljava.lang.Object; (对象数组)# 2 234567 45678901 com.example.OrderItem# 3 123456 34567890 com.example.Order# 4 89012 23456789 java.lang.String# 5 45678 12345678 java.util.HashMap$Node# 分析:# - 约 230 万个 OrderItem 对象存在# - 每个 OrderItem 约 200 字节# - 这些对象应该被 Minor GC 回收,但大量晋升到老年代2.4 根因定位
┌──────────────────────────────────────────────────────────────────┐ │ 问题根因分析 │ ├──────────────────────────────────────────────────────────────────┤ │ │ │ SurvivorRatio=8 意味着: │ │ 年轻代 2.7GB = Eden(2.4GB) + Survivor0(0.15GB) + Survivor1(0.15GB) │ │ │ │ 问题链条: │ │ 1. 订单处理高峰期,每 15 秒 Minor GC │ │ 2. Minor GC 后约 500MB 对象存活 │ │ 3. Survivor 只能容纳 150MB → 350MB 对象溢出 → 直接晋升 │ │ 4. 350MB/次 * 4次/分钟 * 3分钟 = 4.2GB → 老年代快速填满 │ │ 5. 老年代达到阈值 → Full GC(每 3 分钟一次) │ │ │ │ 根因:Survivor 太小 + 晋升阈值默认动态调整偏低 │ │ │ └──────────────────────────────────────────────────────────────────┘三、解决方案
3.1 方案一:紧急止血(JVM 参数调整)
# 调整后的 JVM 配置-server-Xms8g-Xmx8g-XX:+UseG1GC-XX:MaxGCPauseMillis=200-XX:NewRatio=2# 保持-XX:SurvivorRatio=4# 调整:300MB → 600MB(扩大一倍)-XX:MaxTenuringThreshold=15# 调整:提高晋升阈值-XX:TargetSurvivorRatio=90# 新增:Survivor 使用率目标-XX:MetaspaceSize=256m -Xlog:gc*:file=/var/log/gc.log-XX:+HeapDumpOnOutOfMemoryError3.2 方案二:代码层面优化
// 问题代码(大量临时对象)publicList<OrderItem>buildOrderItems(List<Product>products){List<OrderItem>items=newArrayList<>();// 每次调用都 newfor(Productp:products){OrderItemitem=newOrderItem();// 每次都 newitem.setProductId(p.getId());item.setPrice(p.getPrice());item.setQuantity(1);items.add(item);}returnitems;}// 优化方案 1:对象池复用publicclassOrderItemPool{privatestaticfinalConcurrentLinkedQueue<OrderItem>POOL=newConcurrentLinkedQueue<>();publicstaticOrderItemborrow(){OrderItemitem=POOL.poll();returnitem!=null?item:newOrderItem();}publicstaticvoidreturnObject(OrderItemitem){item.clear();// 重置字段POOL.offer(item);}}// 优化方案 2:批量处理减少中间对象publicvoidprocessOrdersBatch(List<Order>orders){// 在数据库层批量操作,减少 Java 对象创建orderRepository.saveAll(orders);}3.3 调优参数计算
新配置的 Survivor 计算: ┌──────────────────────────────────────────────────────────────────┐ │ SurvivorRatio=4 的效果 │ │ │ │ 年轻代 2.7GB = Eden(2.16GB) + Survivor0(0.27GB) + Survivor1(0.27GB) │ │ │ │ 容量扩大:150MB → 270MB(增加 80%) │ │ 晋升阈值:MaxTenuringThreshold=15(原来动态约 6-8) │ │ │ │ 效果预估: │ │ - Survivor 能吸收峰值对象量翻倍 │ │ - 对象有更多机会在 Survivor 中被回收 │ │ - Full GC 频率预期:3分钟 → 6小时(提升 120 倍) │ │ │ └──────────────────────────────────────────────────────────────────┘四、效果验证
4.1 调优后 GC 日志
# 调优后监控数据(24 小时后)$ jstat-gcutil12345100010# 输出:# S0 S1 E O M YGC YGCT FGC FGCT GCT# 5.30 0.00 45.00 68.50 82.10 512 78.90 12 15.60 94.50# 关键改善:# - O(老年代): 95.5% → 68.5% ↓(空间充足)# - FGC(Full GC): 189 → 12 ↓(减少 94%)# - FGCT(Full GC 耗时): 234s → 15.6s ↓4.2 长期稳定性
调优后 30 天监控数据: ┌──────────────────────────────────────────────────────────────────┐ │ 指标 │ 调优前 │ 调优后 │ 改善 │ ├─────────────────────────┼─────────────┼─────────────┼─────────┤ │ Full GC 频率 │ 20次/小时 │ 0.03次/小时 │ 99.8%↓ │ │ Full GC 总耗时 │ 5.2小时/天 │ 0.3小时/天 │ 94%↓ │ │ Old Gen 平均使用率 │ 92% │ 65% │ 27%↓ │ │ 服务可用性 │ 98.5% │ 99.9% │ 1.4%↑ │ │ 接口 TP99 │ >5s │ <200ms │ 96%↓ │ └─────────────────────────┴─────────────┴─────────────┴─────────┘五、经验总结
5.1 问题排查流程
┌──────────────────────────────────────────────────────────────────┐ │ Full GC 排查流程 │ ├──────────────────────────────────────────────────────────────────┤ │ │ │ Step 1: 确认 Full GC 类型 │ │ └→ Allocation Failure / Ergonomics / System.gc() / Metaspace │ │ │ │ Step 2: 分析 GC 日志 │ │ └→ Minor GC 频率 / 晋升量 / 老年代增长曲线 │ │ │ │ Step 3: jstat 实时监控 │ │ └→ Survivor 使用率 / 老年代使用率趋势 │ │ │ │ Step 4: jmap 堆分析 │ │ └→ 大对象类型 / 对象数量异常 │ │ │ │ Step 5: 代码审查 │ │ └→ 对象创建热点 / 缓存泄漏 / 静态集合 │ │ │ └──────────────────────────────────────────────────────────────────┘5.2 预防措施
# 生产环境 JVM 配置检查清单:# 1. SurvivorRatio 建议 >= 4(不要用默认的 8)# 2. MaxTenuringThreshold 建议显式设置 >= 10# 3. TargetSurvivorRatio 建议设置 90(让 Survivor 充分利用)# 4. GC 日志必开,记录晋升年龄分布# 5. 配置告警:Old Gen > 80% 持续 5 分钟触发告警系列导航
- 上一篇:【JVM深度解析】第13篇:生产环境JVM配置最佳实践
- 下一篇:【JVM深度解析】第15篇:JVM配置优化案例二:内存泄漏定位与修复(MAT分析全流程)
- 系列目录:JVM深度解析系列全集
参考资料
- G1 GC调优指南
- Eclipse MAT使用指南
- JVM内存分配与回收