Apache Storm工作程序内存泄漏-堆外



我有一个4节点的风暴集群。Worker JVM参数如下:

-Xms5g -Xmx15g -XX:+UseG1GC -XX:MaxDirectMemorySize=1024m

Storm版本:0.9.3

问题是:当进程内存达到14GB以上时,工作进程往往会显著减慢速度。

捕捉时,我的顶部输出如下。

 PID USER      PR  NI    VIRT    RES    SHR S  %CPU %MEM     TIME+ COMMAND                                                                                                                                
 2075 root      20   0 18.132g 8.372g  12368 S  57.2 28.3  18:27.44 java 

GC日志:

3317.095: [GC pause (young), 0.1861930 secs]
   [Parallel Time: 180.9 ms, GC Workers: 4]
      [GC Worker Start (ms): Min: 3317095.5, Avg: 3317095.5, Max: 3317095.5, Diff: 0.0]
      [Ext Root Scanning (ms): Min: 29.0, Avg: 29.4, Max: 29.7, Diff: 0.7, Sum: 117.4]
      [Update RS (ms): Min: 18.0, Avg: 18.1, Max: 18.3, Diff: 0.3, Sum: 72.5]
         [Processed Buffers: Min: 31, Avg: 41.2, Max: 53, Diff: 22, Sum: 165]
      [Scan RS (ms): Min: 0.6, Avg: 0.7, Max: 0.8, Diff: 0.2, Sum: 2.8]
      [Code Root Scanning (ms): Min: 0.1, Avg: 0.1, Max: 0.1, Diff: 0.1, Sum: 0.4]
      [Object Copy (ms): Min: 132.1, Avg: 132.5, Max: 132.7, Diff: 0.6, Sum: 529.8]
      [Termination (ms): Min: 0.0, Avg: 0.0, Max: 0.0, Diff: 0.0, Sum: 0.0]
      [GC Worker Other (ms): Min: 0.0, Avg: 0.0, Max: 0.1, Diff: 0.0, Sum: 0.2]
      [GC Worker Total (ms): Min: 180.7, Avg: 180.8, Max: 180.8, Diff: 0.1, Sum: 723.1]
      [GC Worker End (ms): Min: 3317276.3, Avg: 3317276.3, Max: 3317276.3, Diff: 0.0]
   [Code Root Fixup: 0.1 ms]
   [Code Root Migration: 0.2 ms]
   [Clear CT: 0.4 ms]
   [Other: 4.6 ms]
      [Choose CSet: 0.0 ms]
      [Ref Proc: 1.4 ms]
      [Ref Enq: 0.1 ms]
      [Free CSet: 1.5 ms]
   [Eden: 2366.0M(2366.0M)->0.0B(1808.0M) Survivors: 94.0M->106.0M Heap: 5052.0M(15.0G)->2698.0M(15.0G)]
 [Times: user=0.73 sys=0.00, real=0.19 secs] 

我可以看到只有2698MB的堆被使用。但Linux Top显示RES内存为8.372g。当Top内存达到~15GB时,进程将开始堵塞,我想避免这种情况。

此外,我已经缩小了一些使用XX:MaxDirectMemorySize的外部API阻塞Direct内存的可能性。

由于堆大小很大,如果我试图使用探查器(在我的情况下是yourkit)获取内存快照,那么工作程序就会崩溃。

我需要找到内存堵塞的原因。

此外,为了避免消息过多,我使用topology_MAX_SPOUT_PENDING等于5来抑制拓扑。

我正在使用KafkaSpout-storm.kafkakaSpout,来自/net/wurstmeister/stroom/storm-kafka-0.8-plus/

我还提到了这个线程,它也有类似的问题,但使用ZMQ而不是新版本的Storm中使用的Netty。

分支内存泄漏

更新:当我移除所有螺栓并只运行kafkaspout时,延迟最小,也没有内存问题。所以,我们大概可以怀疑加工螺栓。

已解决。事实上,问题是G1的占用空间对于进程内存来说很大,但收集更优化。

从ParallelOldGC或CMS收集器到G1,较大的JVM进程大小在很大程度上与"记帐"数据结构有关,如Remembered Sets和Collection Sets。

记忆集(Remembered Sets)或RSets将对象引用跟踪到给定区域中。堆中的每个区域都有一个RSet。RSet可实现区域的并行和独立收集。RSet的总体占地面积影响小于5%。

集合集或C集将在GC中收集的区域集。在GC期间,CSet中的所有活动数据都会被清空(复制/移动)。区域集合可以是伊甸园、幸存者和/或老一代。CSet对JVM大小的影响小于1%。

最新更新