为什么堆栈中的局部变量分配的内存多于C中所需的内存?

前端之家收集整理的这篇文章主要介绍了为什么堆栈中的局部变量分配的内存多于C中所需的内存?前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。
我正在阅读缓冲区溢出.我发现有关堆栈上局部变量的内存分配的一个奇怪的事情
int f1 ()
{
    char string1[12];
    char string2[4];
}

这里分配发生在堆栈上.

现在,在GCC中,string2被分配了4个字节,但是如果我声明除了2的幂(最多16个)之外,则由编译器分配16个字节.这意味着如果我在3,5,6,7,….,15个字节中分配string2,那么它由编译器分配16个字节,但如果我分配2的幂,如1,2,4,8 ……然后它被分配完全相同的大小.如果我分配超过16个字节(不是2的幂),那么它分配32个字节(我估计高达32个字节).

而在Visual Studio中,如果我分配1个字节,则分配9个字节,如果从2-4个字节分配,则分配12个字节,如果从5-8个字节开始,则编译器分配16个字节.

任何人都知道为什么这样的任务???

Atleast在Visual Studio中,如果有缓冲区溢出,我会收到调试错误,但在gcc中没有任何反应. GCC仅在发生过大的溢出时才提供分段故障.

解决方法

堆栈帧大小受存储器对齐选择的影响,对于32位代码通常是4的倍数,对于64位代码通常是8的倍数.

两个编译器都可以包含使用canary进行堆栈帧损坏检查,堆栈顶部的额外32位值,在函数入口处初始化并在函数出口处进行检查.如果更改了canary值,则会发生程序中止,因为堆栈帧可能被恶意代码损坏,可能会更改函数返回地址并使其返回到任意位置.一种非常流行的恶意软件注入矢量.

MSVC具有/ RTC选项,默认情况下在Debug配置中启用.在每个局部变量之间添加这些金丝雀.因此它可以检测每个变量上的缓冲区溢出问题.

这些金丝雀当然需要额外的空间,影响堆栈框架的大小.

原文链接:https://www.f2er.com/c/116729.html

猜你在找的C&C++相关文章