我正在运行一个自定义的2.6.27内核,我刚刚注意到在段错误期间产生的核心文件大于为进程设置的硬核文件大小限制。
更奇怪的是,核心文件只是有时被截断(但没有达到ulimit设置的限制)。例如,下面是我将尝试崩溃的程序:
int main(int argc, char **argv)
{
// Get the hard and soft limit from command line
struct rlimit new = {atoi(argv[1]), atoi(argv[1])};
// Create some memory so as to beef up the core file size
void *p = malloc(10 * 1024 * 1024);
if (!p)
return 1;
if (setrlimit(RLIMIT_CORE, &new)) // Set the hard and soft limit
return 2; // for core files produced by this
// process
while (1);
free(p);
return 0;
}
下面是执行:
Linux# ./a.out 1446462 & ## Set hard and soft limit to ~1.4 MB
[1] 14802
Linux# ./a.out 1446462 &
[2] 14803
Linux# ./a.out 1446462 &
[3] 14804
Linux# ./a.out 1446462 &
[4] 14807
Linux# cat /proc/14802/limits | grep core
Max core file size 1446462 1446462 bytes
Linux# killall -QUIT a.out
Linux# ls -l
total 15708
-rwxr-xr-x 1 root root 4624 Aug 1 18:28 a.out
-rw------- 1 root root 12013568 Aug 1 18:39 core.14802 <=== truncated core
-rw------- 1 root root 12017664 Aug 1 18:39 core.14803
-rw------- 1 root root 12013568 Aug 1 18:39 core.14804 <=== truncated core
-rw------- 1 root root 12017664 Aug 1 18:39 core.14807
[1] Quit (core dumped) ./a.out 1446462
[2] Quit (core dumped) ./a.out 1446462
[3] Quit (core dumped) ./a.out 1446462
[4] Quit (core dumped) ./a.out 1446462
这里发生了很多事情。我将每个进程的硬限制设置为1.4 MB。
- 生成的核心文件远远超过了设置的限制。为什么?
- 产生的4个核心文件中的2个被截断,但正好是
4096
字节。这是怎么回事?
我知道core文件包含分配的全部堆栈和堆内存。对于这样一个简单的程序来说,这不应该是相当恒定的吗(最多给或取几个字节),从而在多个实例之间产生一致的核心?
编辑:
1 du
的请求输出
Linux# du core.*
1428 core.14802
1428 core.14803
1428 core.14804
1428 core.14807
Linux# du -b core.*
12013568 core.14802
12017664 core.14803
12013568 core.14804
12017664 core.14807
2在malloc()
之后添加memset()
绝对统治了事情,因为核心文件现在都被截断为1449984
(仍然超过限制3522
字节)。
那么为什么以前的核心这么大,它们包含什么?不管它是什么,它都不受工艺限制。
3新程序还显示了一些有趣的行为:
Linux# ./a.out 12017664 &
[1] 26586
Linux# ./a.out 12017664 &
[2] 26589
Linux# ./a.out 12017664 &
[3] 26590
Linux# ./a.out 12017663 & ## 1 byte smaller
[4] 26653
Linux# ./a.out 12017663 & ## 1 byte smaller
[5] 26666
Linux# ./a.out 12017663 & ## 1 byte smaller
[6] 26667
Linux# killall -QUIT a.out
Linux# ls -l
total ..
-rwxr-xr-x 1 root root 4742 Aug 1 19:47 a.out
-rw------- 1 root root 12017664 Aug 1 19:47 core.26586
-rw------- 1 root root 12017664 Aug 1 19:47 core.26589
-rw------- 1 root root 12017664 Aug 1 19:47 core.26590
-rw------- 1 root root 1994752 Aug 1 19:47 core.26653 <== ???
-rw------- 1 root root 9875456 Aug 1 19:47 core.26666 <== ???
-rw------- 1 root root 9707520 Aug 1 19:47 core.26667 <== ???
[1] Quit (core dumped) ./a.out 12017664
[2] Quit (core dumped) ./a.out 12017664
[3] Quit (core dumped) ./a.out 12017664
[4] Quit (core dumped) ./a.out 12017663
[5] Quit (core dumped) ./a.out 12017663
[6] Quit (core dumped) ./a.out 12017663
核心转储的实现可以在fs/binfmt_elf.c
中找到。我将遵循3.12及以上版本的代码(它在提交9b56d5438后更改),但逻辑非常相似。
代码最初决定在vma_dump_size
中转储多少VMA(虚拟内存区域)。对于匿名VMA(如brk
堆),它返回VMA的完整大小。在此步骤中,不涉及核心限制。
写入核心转储的第一阶段然后为每个VMA写入一个PT_LOAD
头。这基本上是一个指针,指示在ELF文件的其余部分中查找数据的位置。实际的数据由for
循环写入,实际上是第二个阶段。
在第二阶段,elf_core_dump
重复调用get_dump_page
来获得一个struct page
指针,指向需要转储的程序地址空间的每个页面。get_dump_page
是mm/gup.c
中常见的实用函数。对get_dump_page
的注释很有帮助:
* Returns NULL on any kind of failure - a hole must then be inserted into
* the corefile, to preserve alignment with its headers; and also returns
* NULL wherever the ZERO_PAGE, or an anonymous pte_none, has been found -
* allowing a hole to be left in the corefile to save diskspace.
,实际上elf_core_dump
调用fs/coredump.c
中的函数(内核中的dump_seek
, 3.12+中的dump_skip
),如果get_dump_page
返回NULL
。这个函数调用lseek在转储中留下一个洞(实际上,由于这是内核,它直接在struct file
指针上调用file->f_op->llseek
)。主要区别在于dump_seek
确实不遵守ulimit,而较新的dump_skip
则遵守。
至于为什么第二个程序有奇怪的行为,可能是因为ASLR(地址空间随机化)。哪个VMA被截断取决于VMA的相对顺序,这是随机的。您可以尝试使用
禁用它。echo 0 | sudo tee /proc/sys/kernel/randomize_va_space
,看看结果是否更加均匀。要重新启用ASLR,使用
echo 2 | sudo tee /proc/sys/kernel/randomize_va_space