Я хочу умножить длинные числа, которые даны в основе 2 ^ 32. Я уже придумал хороший алгоритм для этого, но, к сожалению, я застрял. Ситуация, в которой я застрял, заключается в том, как я умножаю два длинных целых числа и представляю их на основе 2 ^ 32.
#include <stdio.h>
#include <stdlib.h>
#include <limits.h>
typedef unsigned int uint32;
typedef unsigned long long uint64;
int main(int argc, char* argv[] )
{
uint64 a = (uint64)ULONG_MAX;
printf("%llu\n", a);
uint64 b = (uint64)ULONG_MAX;
printf("%llu\n", b);
uint64 c = (uint64)(a*b);
printf("%llu\n", c); // prints 1. that would be to lower 32 bits of the results. the upper half is 0xFFFFFFFE
printf("%llu\n", ULLONG_MAX);
system("pause");
}
Почему ULLONG_MAX совпадает с ULONG_MAX? Согласно http://en.wikipedia.org/wiki/Limits.h#Member_constants должно быть 18 446 744 073 709 551 615 I
Как видно из моих комментариев, мне нужен результат умножения двух uint32. Нижняя половина будет 0x1, а верхняя половина 0xFFFFFFFE. Как получить эти значения?
(Я нашел этот вопрос на SO, но в моей ситуации это бесполезно, потому что ответы, данные мне, похожи на мои идеи: Умножение двух длинных длинных целых чисел C)
Изменить: Моя система — Windows XP 32 Bit. Я использую gcc 3.4.2 (специальный mingw)
Вывод, который я получаю при запуске кода:
4294967295
4294967295
1
4294967295
Изменить2:
printf("%i\n", sizeof(unsigned long));
printf("%i\n", sizeof(unsigned long long));
возвращается
4
8
Редактировать 3: благодаря Petesh я смог найти решение:
printf("%lu\n", c & 0xFFFFFFFF);
printf("%lu\n", (c >> 32));