java gc 专家系列3:gc调优实践-亚博电竞手机版
本篇是”gc专家系列“的第三篇。在第一篇理解java垃圾回收中我们学习了几种不同的gc算法的处理过程,gc的工作方式,新生代与老年代的区别。所以,你应该已经了解了jdk 7中的5种gc类型,以及每种gc对性能的影响。
在第二篇java垃圾回收的监控中介绍了在真实场景中jvm是如何运行gc,如何监控gc数据以及有哪些工具可用来方便进行gc监控。
在本篇中,我将基于真实的案例来介绍一些gc调优的最佳选项。写本篇文章时,我假设你已经理解了前两篇的内容。为了深入理解本部分内容,你最好先浏览一下前两篇的内容——如果你尚未了解的话。
gc调优是必须的吗
更精确的说, 基于java的服务是否一定需要gc调优 ?应该说,gc调优并非所有java服务都必须做的事情。当然这是基于你已经使用了下面的选项或事实:
- 通过 -xms 和 -xmx 选项指定了内存大小
- 使用了 -server 选项
- 系统未产生太多超时日志
也就是说,如果你未设置内存大小并且你的系统产生了过多的超时日志,恭喜你需要为你的系统执行gc调优。
但是,请记住: gc调优是不得已时的选择 。
思考一下gc调优的深层原因。垃圾回收器会去清理java中创建的对象。gc需要清理的对象数据以及gc执行的次数取决于应用创建对象的多少。因此,为了控制gc的执行,首先你需要 减少对象的创建 。
俗话说“积重难返”。所以我们需要从小处着手,否则它们将不断壮大直到难以管理。
- 应该多使用 stringbuilder 和 stringbuffer 对象替代 string 。
- 减少不必要的日志输出。
即便如此,面对有些场景我们依然无能为力。我们知道解析xml和json会占用大量的内存空间。即便我们尽可能少的使用 string ,尽可能好的优化日志输出,然而在解析xml和json时仍然会有大量的内存开销,甚至有10~100mb之多,可我们很难杜绝xml和json的使用。但是请记住:xml和json会带来很大的内存开销。
如果应用的内存占用不断提升,你就要开始对其进行gc调优了。我把gc调优的目标分为以下两类:
- 降低移动到老年代的对象数量
- 缩短full gc的执行时间
降低移动到老年代的对象数量
在oracle jvm中除了jdk 7及最高版本中引入的g1 gc外,其他的gc都是基于分代回收的。也就是对象会在eden区中创建,然后不断在survivor中来回移动。之后如果该对象依然存活,就会被移到老年代中。有些对象,因为占用空间太大以致于在eden区中创建后就直接移动到了老年代。老年代的gc较新生代会耗时更长,因此减少移动到老年代的对象数量可以降低full gc的频率。减少对象转移到老年代可能会被误解为把对象保留在新生代,然而这是不可能的,相反你可以 调整新生代的空间大小 。
缩短full gc耗时
full gc的单次执行与minor gc相比,耗时有较明显的增加。如果执行full gc占用太长时间(例如超过1秒),在对外服务的连接中就可能会出现超时。
- 如果企图通过缩小老年代空间的方式来降低full gc执行时间,可能会面临 outofmemoryerror 或者带来更频繁的full gc。
- 如果通过增加老年代空间来减少full gc执行次数,单次full gc耗时将会增加。
因此,需要 为老年代空间设置适当的大小 。
影响gc性能的选项
在理解java垃圾回收的结尾,我说过不要有这样的想法: 别人通过某个gc选项获得了明显的性能提升,为什么我不直接用这个选项呢 。因为 不同的服务所拥有的对象数量和对象的生命周期是不同的 。
一个简单场景,如果执行一个任务需要五个条件:a, b, c, d和e,另外一个任务只需要两个条件a和b,哪个任务会快一些?通常只需要条件a和b的任务会快一些。
java gc选项的设置也是一样的道理。设置很多选项未必能提高gc执行速度,相反还可能会更加耗时。 gc调优的基本规则是对两台或更多的服务器设置不同的选项,并对比性能表现 ,然后把被证明能提升性能的选项添加到应用服务器上。请记住这一点。
下表列出了与内存相关的且会影响性能的gc选项:
表1: gc调优需要关注的选项
分类 | 选项 | 说明 |
---|---|---|
堆空间 | -xms | 启动jvm时的初始堆空间大小 |
-xmx | 堆空间最大值 | |
新生代空间 | -xx:newratio | 新生代与老年代的比例 |
-xx:newsize | 新生代大小 | |
-xx:survivorratio | eden区与survivor区的比例 |
我经常会使用的选项是: -xms , -xmx 和 -xx:newratio ,其中 -xms 和 -xmx 是必须的。而如何设置 -xx:newratio 对性能会有显著的影响。
可能有人会问 如何设置永久代(perm)的大小 , 可以使用 -xx:permsize 和 -xx:maxpermsize 进行设置,但记住只有发生由perm空间不足导致的 outofmemoryerror 时才需要设置。
另外一个会影响gc性能的选项是gc类型,下表列出了jdk 6.0中能使用的相关设置选项:
表2: gc类型选项
分类 | 选项 | 说明 | |
---|---|---|---|
serial gc | -xx: useserialgc | ||
parallel gc | -xx: useparallelgc-xx:parallelgcthreads= | ||
parallel compacting gc | -xx: useparalleloldgc | ||
cms gc | -xx: useconcmarksweepgc -xx:useparnewgc -xx: cmsparallelremarkenabled -xx:cmsinitiatingoccupancyfraction= -xx: usecmsinitiatingoccupancyonly | ||
g1 | -xx: unlockexperimentalvmoptions-xx: useg1gc | 在jdk6中使用g1时,这两个选项必须同时设置 |
除了g1,其他gc类型都是通过每个选行列的第一行选项进行设置。通常最不会使用的是serial gc,它是为client应用优化和设计的。
还有很多其他影响gc性能的选项,但不如上面这些对性能的影响明显。另外设置更多选项未必能优化gc的执行时间。
gc调优过程
gc调优过程与一般的性能改进流程很相似,下面会介绍我在gc调优过程中的流程。
1. 监控gc状态
首先需要监控gc状态信息以明确在gc操作过程中对系统的影响。具体方式可以回顾上一篇文章:java 垃圾回收的监控。
2. 分析监控数据并决定是否需要gc调优
然后通过gc操作状态,对监控结果进行分析,并判断是否有必要进行gc调优。如果分析结果显示gc耗时在0.1-0.3秒以内的话,一般不需要花费额外的时间做gc调优。然而, 如果gc耗时达到1-3秒甚至10秒以上,就需要立即对系统进行gc调优 。
但是如果你的应用分配了10gb的内存,且不能降低内存容量的话,其实是没办法进行gc调优的。这种情况下,你首先要去思考为什么需要分配这么大的内存。如果只给应用分配了1gb或者2gb内存,当有 outofmemeoryerror 发生时,你需要通过堆dump来分析验证内存溢出的原因并进行修复。
注释:堆dump是把内存情况按一定格式输出到文件,可用于检查java 内存中的对象和数据情况。可使用jdk中内置的 jmap 命令创建堆dump文件。创建文件过程中,java进程会中断,因此不要在正常运行时系统上做此操作。
3. 设置gc类型和内存大小
如果决定做gc调优,就需要考虑如何选择gc类型、如何设置内存大小。如果你有多台服务器,可通过为每台服务器设置不同的gc选项并对比不同的表现,这一步很重要。
4. 分析gc调优结果
设置gc选项后,至少要收集24小时的gc表现数据,然后就可以着手分析这些数据了。如果足够幸运,通过分析就刚好找到了最合适的gc选项。否则就需要分析gc日志,并分析内存的分配情况。然后通过不同的调整gc类型和内存大小来找到系统的最优选项。
5. 如果结果可接受,则对所有服务应用调优选项并停止调优
如果gc结果令人满意,就可以把相应的选项应用到所有服务器并停止gc调优。
下面的章节会详细介绍每个步骤中的详细过程。
监控gc状态并分析gc结果
监控web应用(was: web application server)gc运行状态的最好方式是使用 jstat 命令。在java 垃圾回收的监控部分已经介绍了如何使用jstat命令,所以这里就直接介绍怎么样来校验结果数据。
下面的例子中列出了jvm未做gc调优时的数据:
$ jstat -gcutil 21719 1s s0 s1 e o p ygc ygct fgc fgct gct 48.66 0.00 48.10 49.70 77.45 3428 172.623 3 59.050 231.673 48.66 0.00 48.10 49.70 77.45 3428 172.623 3 59.050 231.673
看一下表中的ygc和ygct,ygct 除以 ygc算出平均单次ygc耗时为0.05秒。也就是说在新生代执行一次垃圾回收的平均耗时为50毫秒。通过这份结果,我们可以无须关注新生代的垃圾回收。
然后再看一下fgct和fgc,fgct除以fgc算出平均单次fgc耗时为19.68秒。也就是平均需要消耗19.68秒来执行一次full gc。上面的结果(共3次full gc)可能是每次full gc都耗时19.68秒,也有可能是其中两次都只耗时1秒,而另外一次却消耗了58秒。然而不管哪种情况,都迫切需要进行gc调优。
当然也可以通过 jstat 来校验结果,不过分析gc的最好方式是使用 -verbosegc 选项来启动jvm。在前面的文章中我已经详细介绍了生成日志的方式以及如何进行分析。就分析 -verbosegc 日志而言, hpjmeter 是我最偏爱的工具,因为它简单易用。使用hpjmeter可以轻松获取gc执行时间的开销以及gc发生的频率。
如果gc执行时间满足以下判断条件,那么gc调优并没那么必须。
- minor gc执行迅速(50毫秒以内)
- minor gc执行不频繁(间隔10秒左右一次)
- full gc执行迅速(1秒以内)
- full gc执行不频繁(间隔10分钟左右一次)
括号内的值并非绝对,依据应用的服务状态会有不同。有些服务可能要求full gc处理速度不能超过0.9秒,另外一些服务可能会宽松些。因此校验gc结果并根据具体的服务需要,决定是否要进行gc调优。
在校验gc状态时,不要只关心minor gc和full gc的耗时,也要 gc执行次数也同样重要 。如果新生代太小,minor gc就会频繁执行(甚至每间隔1秒就要执行一次)。另外,新生代太小导致转移到老年代的对象增多,也会引起full gc的频繁执行。因此使用`-gccapacity`配合jstat命令,以检查内存空间的使用情况。
设置gc类型和内存大小
设置gc类型
oracle jvm提供了5种gc类型,如果是低于jdk 7的版本,可以使用parallel gc, parallel compacting gc, cms gc。当然,到底选哪一个并没有统一的准则或标准。
所以 如何选择合适的gc类型 ?推荐方案是将这三种gc都应用到应用中进行对比。不过可以明确的是cms gc肯定比parallel gcs更快,即然这样只使用cms gc便好。然而cms gc也有出问题的时候,通常full gc中使用cms gc会执行更快,如果cms gc的并发模式失败,则会出现比parallel gcs慢的情况。
并发模式失败
我们来深入看一下并发模式失败的场景。
parallel gc与cms gc最大的区别在于压缩任务。压缩任务通过压缩内存使用来移除内存中的碎片空间,以清理两块已分配使用的内存空间中的间隙。
在parallel gc中,只要执行full gc便会进行内存压缩,因此耗时更长。不过full gc之后,因为压缩的原故,可以分配连续的空间,所以内存的分配速度为更快一些。
与之相反,cms gc的执行中并不会伴随内存压缩,因此gc速度会更快一些。然而,因此未做内存压缩, gc清理过程中释放的内存便会成为空闲空间。因为空间不连续,可能会导致在创建大对象时空间不足。例如,如果老年代尚有300m空闲,却不能为10mb的对象分配足够的连续空间。这时便会发生 并发模式失败 的警告,并触发内存压缩。如果使用cms gc,在内存压缩过程中可能会比parallel gcs更为耗时,也可能会带来其他问题。关于”并发模式失败”更详细的介绍可以看oracle 工程师的文章: 理解cms gc 日志 。
结论就是,要为你的系统寻找合适的gc类型。
每个系统都有一个最适当的gc类型,所以你需要找到这个gc类型。如果你有6台服务器,建议你为每两组设置相同的选项,并通过 -verbosegc 选项对结果进行分析和比较。
调整内存大小
下面先列出内存大小与gc执行次数、每次gc耗时之间的关系:
- 大内存
- 会降低gc执行次数
- 相应的会增加gc执行耗时
- 小内存
- 会缩知单次gc耗时
- 相应的会增加gc执行次数
当然,关于使用大内存还是小内存并没有唯一正确的答案。如果服务器资源足够且full gc执行耗时能控制在1秒以内,使用10gb的内存也是可以的。但大多数时候如果设置内存为10gb,gc执行效果并不尽人意,执行一次full gc可能要消耗10~30秒(具体时长也会根据对象大小情况而不同)。
既然如此, 如何正确设置内存大小 。通常情况下,我会推荐500mb大小。这不是说你要把自己的was(web application server)内存选项设置为 -xms500 和 -xmx500m 。基于当前未调优时的场景,检查full gc之后内存大小变化。如果full gc之后尚有300mb空间剩余,这样最好把内存设置到1gb(300mb(默认使用) 500mb(老年代最小容量) 200mb(空闲空间))。这意味着你应该才老年代至少设置500mb空间。如果你有3台服务器,可以分别设置1gb、1.5gb和2gb,并检查每台机器的执行结果。
理论上,根据内存大小不同单次执行gc速度应该是1gb > 1.5gb > 2gb,所以1gb的内存会中三个之中gc速度最快的。但并不能保证1gb的内存full gc耗时1秒,2gb的内存full gc耗时2秒。实际耗时与机器性能和对象大小也有关系。所以最好的度量方式是设置每种可能性并分析他们的监控结果。
有设置内存大小时,还需要设置另外一选项: newratio 。 newratio 是新生代与老年代的比值的倒数(即老年代与新生代的比值)。如果 xx:newratio=1 ,就是说新生代 : 老年代的比值为1:1。对于1gb内存,就是新生代与老年代各500mb。如果 newratio 的值是2,则是新生代 : 老年代的值为1:2。因此比值设置的越大,老年代的空间就越大,相应的新生代空间会越小。
设置 newratio 也不是一件重要的事,但可能会对整个gc性能带来严重影响。如果新生代太小,对象就会转移到老年代,引起频繁的full gc,导致更多的耗时。
你可能简单的认为设置 newratio=1 会带来最佳的效果,然而并非如此。把 newratio 设置为2或3更容易带来好的gc表现。当然我也实际遇到过一些这样的例子。
完成gc调优的最快途径是什么?通过对比性能测试的结果是得到gc调优结果的最快途径。通过为每个服务器设置不同的选项并观察gc状态,最好能观察1到2天的数据。如果是通过性能测试来做gc调优的话,要为每个服务器准备相同的负载和业务操作。请求比例的分配也要与业务条件相一致。然而即便是专业的性能测试人员,准备精确的负载数据也并非易事,通常需要花费很大精力来做准备。所以更简捷的gc调优方式就是对业务应用准备gc选项,然后通过等待gc结果并进行分析,尽管可能需要更长的等待时间。
分析gc调优结果
在应用gc选项并设置 -verbosegc 后,可以通过 tail 命令检查日志是否按期望的方式正常输出。如果选项未精确的设置或者没有按期望输出,你所花费的时间都将白费。如果日志输出与期望相符,等待1到2天的运行后便可检查和分析结果。最简单的方式是把日志文件复制到本地pc,并使用 hpjmeter 进行分析。
分析过程中主要关注以下数据,下面列表是按我自己定义的优先级列出的。其中决定gc选项的最重要的数据是full gc执行时间。
- full gc(平均)耗时
- minor gc(平均)耗时
- full gc执行间隔
- minorgc执行间隔
- full gc整体耗时
- minor gc整体耗时
- gc整体耗时
- full gc执行次数
- minor gc执行次数
如果足够幸运,你能恰好找到合适的gc选项,通常你并没这么幸运。执行gc调优时一定要格外小心,因为如果你试图一次就完成gc调优,得到的可能会是 outofmemoryerror 。
调优案例
上面我们对于gc调优的讨论还仅是纸上谈兵,现在开始我们看一些具体的gc调优的案例。
案例1
这个例子是为服务s进行的gc优化。对于这个新上线的服务s,在执行full gc时有些过于耗时。
先看一下 jstat -gcutil 的结果:
s0 s1 e o p ygc ygct fgc fgct gct 12.16 0.00 5.18 63.78 20.32 54 2.047 5 6.946 8.993
在开始进行调优时不用太关心 持久代 空间的设置,相对而言ygc的数值更值得关注。
从上面的结果中我们可算出执行minor gc和full gc的平均时间上的开销,如下表:
表3:服务s执行minor gc和full gc的平均耗时
gc类型 | gc 执行次数 | gc执行时间 | 平均耗时 |
---|---|---|---|
minor gc | 54 | 2.047 | 37 ms |
full gc | 5 | 6.946 | 1389 ms |
对于minor gc来说, 37 ms 还不算坏,而full gc的平均耗时 1.389 s 对于系统来说在执行full gc时可能会导致频繁的超时现象,例如db超时设置为1 s的话就会发生超时。所以这个案例中的系统需要进行gc调优。
首先在开始gc调优之前先检查当前的内存设置。可以使用 jstat -gccapacity 选项查看内存的使用情况。下面是服务s的检查结果:
ngcmn ngcmx ngc s0c s1c ec ogcmn ogcmx ogc oc pgcmn pgcmx pgc pc ygc fgc 212992.0 212992.0 212992.0 21248.0 21248.0 170496.0 1884160.0 1884160.0 1884160.0 1884160.0 262144.0 262144.0 262144.0 262144.0 54 5
其中关键的数据如下:
- 新生代使用:212, 992 kb(约208 mb)
- 老年代使用:1,884,160 kb(约1.8 gb)
所以除去持久代之外的内存分配为2 gb,且新生代 : 老年代为 1:9 (即 newratio=9 )。为了看到更详细的信息,对系统的三个不同实现均设置了 -verbosegc 并分别设置了 newratio 选项,除此之外未添加其他选项。
- newratio = 2
- newratio = 3
- newratio = 4
一天之后检查gc时日志时幸运的发生,在设置 newratio 之后尚未有full gc发生。
发生了什么?因为大多数对象在创建之后不久就被销毁,所以新生代里的对象在移到老年代之前就被销毁掉了。
既然如此,就没必要再设置其他选项,只是选择好最佳的 newratio 即可。 如何选取最佳newratio ?只能逐个分析设置不同 newratio 值时的minor gc的平均耗时。
上面三个 newratio 设置对应的minor gc平均耗时如下:
- newratio=2: 45ms
- newratio=3: 34ms
- newratio=4: 30ms
因为 newratio=4 时minor gc具有最小的耗时,所以就是我们选择的最佳设置,即便此时新生代的空间相对较小。应用此选项后,服务再也没有full gc发生。
下面是系统重新设置过选项后,某天通过 jstat -gcutil 查看到的结果:
s0 s1 e o p ygc ygct fgc fgct gct 8.61 0.00 30.67 24.62 22.38 2424 30.219 0 0.000 30.219
你可能认为因为系统接收的请求太少以致于gc发生频率较低,然而在minor gc执行了2,424次的情况下系统未发生full gc。
案例2
下面介绍的是服务a的例子。我们在公司的应用性能管理平台(apm: application performance manager)上发现服务a的jvm周期性的出现长时间的停顿(超过8秒未有响应)的现象。所以我们决定对其进行gc调优。经过排查我们发现此系统在执行full gc时太过耗时,需要进行优化。
在着手优化之前,我们为系统加上了 -verbosegc 选项,输出结果如下图:
图1:gc调优之前的gc耗时
上图是hpjmeter自动分析结果后提供的系统gc随着jvm运行的耗时图。 x-轴 是jvm从启动后的运行时间轴, y-轴 是每次gc的响应时间。其中绿色的是full gc使用的cms垃圾回收的耗时,蓝色的是minor gc使用的parallel scavenge垃圾回收的耗时。
前面我说过cms gc是最快的,但上图可看到有场景耗时竟达到15秒之多。 什么原因导致这种后果? 回想一下我前面说过的:当内存压缩时cms将会变慢。另外服务a设置了 -xms1g 和 -xmx4g 的选项,操作系统为其分配的内存为4 gb。
然后我把gc类型由gms换成了parallel gc,并把内存大小设置为2g, newratio 设置为3。一段时间之后通过 jstat -gcutil 查看到的结果如下:
s0 s1 e o p ygc ygct fgc fgct gct 0.00 30.48 3.31 26.54 37.01 226 11.131 4 11.758 22.890
full gc的速度提升了,与4gb内存时的15秒相比,现在平均每次只需要3秒。但3秒仍然不尽人意,所以我设计了以下六组选项:
- -xx: useparallelgc -xms1536m -xmx1536m -xx:newratio=2
- -xx: useparallelgc -xms1536m -xmx1536m -xx:newratio=3
- -xx: useparallelgc -xms1g -xmx1g -xx:newratio=3
- -xx: useparalleloldgc -xms1536m -xmx1536m -xx:newratio=2
- -xx: useparalleloldgc -xms1536m -xmx1536m -xx:newratio=3
- -xx: useparalleloldgc -xms1g -xmx1g -xx:newratio=3
哪一个会更快呢?结果显示内存越小,速度越快。下图是第六组选项的gc持续时长分布图,代表了最优的gc性能提升。图中看到最慢的为1.7秒,而平均值降低到1秒以内。
图2:使用第六组选项后的gc耗时
因此我把服务a的gc选项调整为了第六组中的设置,然而每天夜里却连续发生了 outofmemoryerror 。个中艰辛不再细说,简而言之就是批量的数据处理任务导致了jvm内存泄露。到此为止,所有的问题都明了了。
如果只对gc日志做短时间的观察例把gc调优的结果应用到所有服务器上是一件非常危险的事情。一定要记住,如果gc调优能够顺利执行而无故障只有一条途径:像分析gc日志一样分析系统的每一个服务操作。
上面通过两个gc调优的案例演示了gc调优的具体处理过程。如我所述,案例中的gc选项可以不做调整的应用到那些具有相同cpu、操作系统和 jdk 版本以及执行相同功能的服务上去。然而不要把这些选项应用到你的系统上,因为他们未必适用。
总结
我执行gc调优一般基于经验而无需通过堆dump后对内存进行详细的分析,尽管精确的内存状态可能会带来更好的gc调优结果。在一般情景,如果内存负载较低时,通过分析内存对象可能效果更好,不过如果服务负载较高,内存空间使用较多时,更推荐基于经验来做gc调优。
我曾经在一些服务上对g1 gc做过性能测试,不过还没有全面使用。结果证明g1 gc执行速度比其他任何gc都要快,不过需要把jdk升级到 jdk 7 才能享受到g1带来的性能提升,另外g1的稳定性目前尚不能完全保证,没有人知道是否会带来严重的bug。所以大范围使用 g1 还尚待时日。
当 jdk 7 稳定以后(并不是说它当前不稳定),并且was针对jdk 7做过优化之后,g1也许会稳定的运行在服务器上,到那时也许就不再需要进行gc调优了。
更多gc调优的细节可以在 slideshare 上搜索相关材料。我最推荐的是twitter 工程师 attila szegedi写的这篇 我在twitter学到的关于jvm调优的一切 ,有时间可以学习一下。
作者:sangmin lee, 性能实验室高级工程师,nhn公司