千家信息网

如何检查高并发多线程下的内存泄漏问题

发表于:2025-01-23 作者:千家信息网编辑
千家信息网最后更新 2025年01月23日,本篇内容介绍了"如何检查高并发多线程下的内存泄漏问题"的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!现
千家信息网最后更新 2025年01月23日如何检查高并发多线程下的内存泄漏问题

本篇内容介绍了"如何检查高并发多线程下的内存泄漏问题"的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!

现象:应用的内存在高并发下内存持续增加,具体体现在早上7点,每秒处理2W,内存增长趋势很快,分配给应用的内存最大值为4G,但是实际上容器节点的内存使用率早已超过这个值,

通过top命令看到的内存使用并不高,略高于4G,初步怀疑是容器统计有问题,看了下内存的状态信息

cat /sys/fs/cgroup/memory/memory.stat

因为安全保密缘故,以下数据为例子数据,不是真实数据cache 148365312rss 5496782848rss_huge 0mapped_file 1605632swap 0pgpgin 3524638pgpgout 2146428pgfault 9691132pgmajfault 44inactive_anon 1142784active_anon 5496709120inactive_file 104824832active_file 42397696unevictable 0hierarchical_memory_limit 8523934592hierarchical_memsw_limit 8523934592total_cache 148365312total_rss 5492382848total_rss_huge 0total_mapped_file 1605632total_swap 0total_pgpgin 3524638total_pgpgout 2146428total_pgfault 9691132total_pgmajfault 44total_inactive_anon 1142784total_active_anon 5423709120total_inactive_file 104823832total_active_file 42397696total_unevictable 0

看了下内存信息 cat /sys/fs/cgroup/memory/memory.meminfo

MemTotal:        8382308 kBMemFree:         2874740 kBBuffers:               0 kBCached:           145000 kBSwapCached:            0 kBActive:          5412308 kBInactive:         103516 kBActive(anon):    5323724 kBInactive(anon):     1116 kBActive(file):      41484 kBInactive(file):   102400 kBUnevictable:           0 kBMlocked:               0 kBSwapTotal:             0 kBSwapFree:              0 kBDirty:                 0 kBWriteback:             0 kBAnonPages:       5362300 kBMapped:             1568 kBShmem:                 0 kBSlab:                  0 kBSReclaimable:          0 kBSUnreclaim:            0 kBKernelStack:           0 kBPageTables:            0 kBNFS_Unstable:          0 kBBounce:                0 kBWritebackTmp:          0 kBCommitLimit:           0 kBCommitted_AS:          0 kBVmallocTotal:          0 kBVmallocUsed:           0 kBVmallocChunk:          0 kBHardwareCorrupted:     0 kBAnonHugePages:         0 kB

确实rss有点高

ps -p PID -o rss,vsz

rss特别高,一开始以为是cache导致内存使用统计有问题,但是看到rss很高可以确定不是cache造成的统计错误。

rss很高的情况下,只有java应用在跑着。

导出来的jmap堆栈:

jmap -dump:format=b,file=20210508heapdump.hprof pid

并没有分析出具体的原因,只知道是加载器加载了大量的线程对象,这些对象都不大,但是量多。

这个时候想了下去拿内存里面的信息看看吧,也怀疑是不是堆外内存在增长。

使用pmap查看进程的内存分配

pmap -x PID > 20210508pmap.txtAddress           Kbytes     RSS   Dirty Mode  Mapping0000000700000000 4194304 4167772 4167772 rw---   [ anon ]0000000800000000    7180    5284       0 r---- classes.jsa0000000800703000    9204       0       0 -----   [ anon ]0000000801000000   10996    5556    5196 rw--- classes.jsa0000000801abd000    5388       0       0 -----   [ anon ]0000000802000000    1552    1540     176 rw--- classes.jsa0000000802184000    2544       0       0 -----   [ anon ]0000000802400000      36      20       0 r-x-- classes.jsa0000000802409000      84       0       0 -----   [ anon ]000000080241e000   10240   10172   10172 rw---   [ anon ]0000000802e1e000 1038336       0       0 -----   [ anon ]00007fdebc000000     132      12      12 rw---   [ anon ]00007fdebc021000   65404       0       0 -----   [ anon ]00007fdec4000000     132       4       4 rw---   [ anon ]00007fdec4021000   65404       0       0 -----   [ anon ]00007fdec8000000     132       4       4 rw---   [ anon ]00007fdec8021000   65404       0       0 -----   [ anon ]00007fdecc000000     132       4       4 rw---   [ anon ]

发现很多RSS大小为40-160的内存段,至少有2W个,这是及其不正常的,理论上是不应该有这么多的。

这个时候用smaps可以输出进程使用的内存块详细信息,包括地址范围和来源

cat /proc//smaps > 20210508smaps.txt注:因为安全保密缘故,以下数据为例子数据,不是真实数据802300000-80211000 r-xp 01345000 fc:10 13514Size:                 36 kBRss:                  20 kBPss:                  20 kBShared_Clean:          0 kBShared_Dirty:          0 kBPrivate_Clean:        20 kBPrivate_Dirty:         0 kBReferenced:           20 kBAnonymous:             0 kBAnonHugePages:         0 kBSwap:                  0 kBKernelPageSize:        4 kBMMUPageSize:           4 kBLocked:                0 kBVmFlags: rd ex mr mw me 803609000-80291e000 ---p 00000000 00:00 0 Size:                 84 kBRss:                   0 kBPss:                   0 kBShared_Clean:          0 kBShared_Dirty:          0 kBPrivate_Clean:         0 kBPrivate_Dirty:         0 kBReferenced:            0 kBAnonymous:             0 kBAnonHugePages:         0 kBSwap:                  0 kBKernelPageSize:        4 kBMMUPageSize:           4 kBLocked:                0 kBVmFlags: mr mw me nr

查看smaps.txt,找到有问题的内存块地址,先从pmap中找到有问题的地址,比如Address为000000080241e000的有问题,则拿着80241e000去smaps找到对应的地址段, 一般会有连续的一个地址段,找问题对应的size,因为连续的地址段可能存在别的内存数据,但是肯定在前后,只需要size对应上就大概率是这个内存段数据。

假设现在找到有问题的地址段为:

80241e000-802420000 ---p 00000000 00:00 0 Size:                 1540 kBRss:                  1540 kBPss:                   0 kBShared_Clean:          0 kBShared_Dirty:          0 kBPrivate_Clean:         0 kBPrivate_Dirty:         0 kBReferenced:            0 kBAnonymous:             0 kBAnonHugePages:         0 kBSwap:                  0 kBKernelPageSize:        4 kBMMUPageSize:           4 kBLocked:                0 kBVmFlags: mr mw me nr

这个时候找到了内存的地址段 ,就需要获取这个内存地址段上的数据,使用gdb神器。

gdb attach PID

这个时候会刷一大串代码,进入gdb命令行,在gdb下将上面找到的内存段信息dump下来。

dump memory /tmp/20210508.dump 0x80241e000 0x802420000

这个时候在 /tmp/20210508.dump 可以找到该内存段数据,可以自己用vim或者less慢慢找,也可以偷懒使用strings命令来帮忙找关键字。

显示长度超过8个字符的字符串。

strings -8 /tmp/20210508.dump

找到之后使用关键字再用less命令去文件里查找。

这时候大概能看到一串这样的字符

@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@insert xxx value(123,456,789) @@@@https://qq.com,@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@

看起来这个内存地址段记录的数据是某方法在写入一个表的时候的操作,这是我们应用某个方法块的数据,找到对应的方法块上下文调用查了下,发现了问题的所在,这个方法被调用的地方在局部new了一个线程池,线程池并没有做shutdown操作,导致大量的线程虽然执行好了但是在存在,所以内存一直在增长。

到了这里问题基本上知道怎么解决了,将线程池扔出外面去,不要在局部new线程池,编译发布,高并发模拟测试,内存不再增长。

"如何检查高并发多线程下的内存泄漏问题"的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识可以关注网站,小编将为大家输出更多高质量的实用文章!

0