У меня ниже простая программа:
#include <stdio.h>
#define INT32_MIN (-0x80000000)
int main(void)
{
long long bal = 0;
if(bal < INT32_MIN )
{
printf("Failed!!!");
}
else
{
printf("Success!!!");
}
return 0;
}
Условие if(bal < INT32_MIN )
всегда верно. Как это возможно?
Он отлично работает, если я изменю макрос на:
#define INT32_MIN (-2147483648L)
Кто-нибудь может указать на проблему?
-0x80000000
, но неверно для -0x80000000L
, -2147483648
и -2147483648L
(GCC 4.1.2), поэтому возникает вопрос: почему это ИНТ буквальные -0x80000000
отличается от Int литерала -2147483648
?
<limits.h>
определяют INT_MIN
как (-2147483647 - 1)
, теперь вы знаете почему.
CHAR_BIT * sizeof(int)
?