我有以下代码:
#include <iostream>
#include <bitset>
#pragma pack(1)
typedef uint8_t flag_t;
typedef struct flag_struct_t {
flag_t f1:1;
flag_t f2:2;
flag_t f3:2;
flag_t f4:2;
flag_t f5:1;
} flag_struct_t;
int main() {
const uint8_t flagValue = 96;
std::bitset<8> mybits(flagValue);
const flag_struct_t flag = *reinterpret_cast<const flag_struct_t*>(&flagValue);
std::cout << "f2 = " << (uint16_t)flag.f2 << std::endl;
std::cout << "f3 = " << (uint16_t)flag.f3 << std::endl;
std::cout << "f4 = " << (uint16_t)flag.f4 << std::endl;
std::cout << "bitset = " << mybits << std::endl;
std::cout << "size of flag_struct_t = " << sizeof(flag_struct_t) << std::endl;
}
#pragma pack()
输出为:
$ ./mybitset
f2 = 0
f3 = 0
f4 = 3
bitset = 01100000
size of flag_struct_t = 1
似乎结构成员的顺序已从f1, f2, f3, f4
颠倒到f4, f3, f2, f1
。
为什么?
如果重要的话,我正在使用GCC 8。
谢谢!
首先,由于通过reinterpret_cast
的类型双关语,您的程序具有未定义的行为。其次,位域的布局是实现定义的 ([class.bit]/1),因此无法保证如何开始分配位域的成员。但是,现在让我们假设编译器会非常好,并实际上将其转换为执行您期望的操作的代码。
十进制 96 的二进制表示形式是 01100000。请注意,数字通常是从右到左书写的(大概是由于它们的阿拉伯语起源)。例如,十进制数 123 中的"第一个数字"(最低有效数字)将是 3,而不是 1。二进制也不例外。因此,如果我们假设编译器按照声明的顺序打包位字段的成员,从第一位开始,那么布局应如下所示
Bit 7 6 5 4 3 2 1 0
f5 f4 f4 f3 f3 f2 f2 f1
或者,对于示例中使用的特定值
Bit 7 6 5 4 3 2 1 0
0 1 1 0 0 0 0 0
这正是你所看到的,如果我没记错的话......
const flag_struct_t flag = *reinterpret_cast<const flag_struct_t*>(&flagValue);
这种重新解释具有未定义的行为。
似乎结构成员的顺序已从
f1, f2, f3, f4
颠倒到f4, f3, f2, f1
。
为什么你期望订单是一个而不是另一个?位字段成员的顺序由实现定义。
GCC 将位字段从"第一个位"开始,即小端序系统中的最低阶位和大端系统中的高阶位:https://gcc.gnu.org/ml/gcc/2004-09/msg00581.html