核心文件大小限制对进程有不确定性影响



我正在运行一个自定义的2.6.27内核,我刚刚注意到在段错误期间产生的核心文件大于为进程设置的硬核文件大小限制。

更奇怪的是,核心文件只是有时被截断(但没有达到ulimit设置的限制)。

例如,下面是我将尝试崩溃的程序:

int main(int argc, char **argv)
{
    // Get the hard and soft limit from command line
    struct rlimit new = {atoi(argv[1]), atoi(argv[1])};
    // Create some memory so as to beef up the core file size
    void *p = malloc(10 * 1024 * 1024);
    if (!p)
        return 1;
    if (setrlimit(RLIMIT_CORE, &new)) // Set the hard and soft limit
        return 2;                     // for core files produced by this
                                      // process
    while (1);
    free(p);
    return 0;
}

下面是执行:

Linux# ./a.out 1446462 &    ## Set hard and soft limit to ~1.4 MB
[1] 14802
Linux# ./a.out 1446462 &
[2] 14803
Linux# ./a.out 1446462 &
[3] 14804
Linux# ./a.out 1446462 &
[4] 14807
Linux# cat /proc/14802/limits | grep core
Max core file size        1446462              1446462              bytes
Linux# killall -QUIT a.out
Linux# ls -l
total 15708
-rwxr-xr-x 1 root root     4624 Aug  1 18:28 a.out
-rw------- 1 root root 12013568 Aug  1 18:39 core.14802         <=== truncated core
-rw------- 1 root root 12017664 Aug  1 18:39 core.14803
-rw------- 1 root root 12013568 Aug  1 18:39 core.14804         <=== truncated core
-rw------- 1 root root 12017664 Aug  1 18:39 core.14807
[1]   Quit                    (core dumped) ./a.out 1446462
[2]   Quit                    (core dumped) ./a.out 1446462
[3]   Quit                    (core dumped) ./a.out 1446462
[4]   Quit                    (core dumped) ./a.out 1446462

这里发生了很多事情。我将每个进程的硬限制设置为1.4 MB。

  1. 生成的核心文件远远超过了设置的限制。为什么?
  2. 产生的4个核心文件中的2个被截断,但正好是4096字节。这是怎么回事?

我知道core文件包含分配的全部堆栈和堆内存。对于这样一个简单的程序来说,这不应该是相当恒定的吗(最多给或取几个字节),从而在多个实例之间产生一致的核心?

编辑:

1 du的请求输出

Linux# du core.*
1428    core.14802
1428    core.14803
1428    core.14804
1428    core.14807
Linux# du -b core.*
12013568    core.14802
12017664    core.14803
12013568    core.14804
12017664    core.14807

2malloc()之后添加memset()绝对统治了事情,因为核心文件现在都被截断为1449984(仍然超过限制3522字节)。

那么为什么以前的核心这么大,它们包含什么?不管它是什么,它都不受工艺限制。

3新程序还显示了一些有趣的行为:

Linux# ./a.out 12017664 &
[1] 26586
Linux# ./a.out 12017664 &
[2] 26589
Linux# ./a.out 12017664 &
[3] 26590
Linux# ./a.out 12017663 &        ## 1 byte smaller
[4] 26653
Linux# ./a.out 12017663 &        ## 1 byte smaller
[5] 26666
Linux# ./a.out 12017663 &        ## 1 byte smaller
[6] 26667
Linux# killall -QUIT a.out
Linux# ls -l
total ..
-rwxr-xr-x 1 root root     4742 Aug  1 19:47 a.out
-rw------- 1 root root 12017664 Aug  1 19:47 core.26586
-rw------- 1 root root 12017664 Aug  1 19:47 core.26589
-rw------- 1 root root 12017664 Aug  1 19:47 core.26590
-rw------- 1 root root  1994752 Aug  1 19:47 core.26653           <== ???
-rw------- 1 root root  9875456 Aug  1 19:47 core.26666           <== ???
-rw------- 1 root root  9707520 Aug  1 19:47 core.26667           <== ???
[1]   Quit                    (core dumped) ./a.out 12017664
[2]   Quit                    (core dumped) ./a.out 12017664
[3]   Quit                    (core dumped) ./a.out 12017664
[4]   Quit                    (core dumped) ./a.out 12017663
[5]   Quit                    (core dumped) ./a.out 12017663
[6]   Quit                    (core dumped) ./a.out 12017663

核心转储的实现可以在fs/binfmt_elf.c中找到。我将遵循3.12及以上版本的代码(它在提交9b56d5438后更改),但逻辑非常相似。

代码最初决定在vma_dump_size中转储多少VMA(虚拟内存区域)。对于匿名VMA(如brk堆),它返回VMA的完整大小。在此步骤中,不涉及核心限制。

写入核心转储的第一阶段然后为每个VMA写入一个PT_LOAD头。这基本上是一个指针,指示在ELF文件的其余部分中查找数据的位置。实际的数据由for循环写入,实际上是第二个阶段。

在第二阶段,elf_core_dump重复调用get_dump_page来获得一个struct page指针,指向需要转储的程序地址空间的每个页面。get_dump_pagemm/gup.c中常见的实用函数。对get_dump_page的注释很有帮助:

 * Returns NULL on any kind of failure - a hole must then be inserted into
 * the corefile, to preserve alignment with its headers; and also returns
 * NULL wherever the ZERO_PAGE, or an anonymous pte_none, has been found -
 * allowing a hole to be left in the corefile to save diskspace.

,实际上elf_core_dump调用fs/coredump.c中的函数(内核中的dump_seek, 3.12+中的dump_skip),如果get_dump_page返回NULL。这个函数调用lseek在转储中留下一个洞(实际上,由于这是内核,它直接在struct file指针上调用file->f_op->llseek)。主要区别在于dump_seek确实不遵守ulimit,而较新的dump_skip则遵守。

至于为什么第二个程序有奇怪的行为,可能是因为ASLR(地址空间随机化)。哪个VMA被截断取决于VMA的相对顺序,这是随机的。您可以尝试使用

禁用它。
echo 0 | sudo tee /proc/sys/kernel/randomize_va_space

,看看结果是否更加均匀。要重新启用ASLR,使用

echo 2 | sudo tee /proc/sys/kernel/randomize_va_space

相关内容

  • 没有找到相关文章

最新更新