При умножении числа из кучи миллионнных разрядов важными окажутся только первые старшие.
Остальные младше - погрешность.
Чем правее, тем бесполезнее их вклад в результат - шум вычислительный!
Какая точность при умножении?
Разве не достаточно следовать этому правилу?
Умножим, к примеру, число, состоящее из следующих цифр:
100000000000000 и еще любые (шум), всего миллион цифр:
например:
100000000000000.....0000000000000000
ИЛИ любое другое число , с разницей в цифрах справа, например:
100000000000000.....9999999999999999
Умножим любое из них например на 5, результат умножения на 5 будет:
500000000000000.....шуммммммммммм
Быстро?