Почему компьютеры используют числа с плавающей точкой вместо BCD или DPD?
Это не дубликат этого вопроса, так как здесь я говорю только про плавающие числа
Почему компьютеры не используют двоично-десятичный формат для вычислений?.
Приведу пример на 64 битном double в fraction 52 бита, если в этих 52 битах использовать BCD, мы получим очень точные числа без ошибок округления(13 значащих цифр, в обычном double 15-17, но будут накапливающиеся погрешности…). FPU считает IEEE 754, но тогда можно также создать и BCDU для вычислений таких BCD с sign и exponent. Но почему так не делают?
Я знаю, что в десятичной системе мы можем делить только на 2 и 5, но это будет более полезно для людей, потому что мы используем десятичную систему, и даже 1/3 будет точнее в десятичной системе, чем в двоичной, потому что в двоичной системе наименьшая разница между числами составляет 0,015625, в десятичной — 0,000001.
Модератору: Вы написали, что ответ легко ищется поиском в интернете, но нигде я не нашел ответа на мой вопрос.