Быть может, вы хотите сравнить погрешности результатов работы алгоритма? Это целая тема. Во-первых, необходимо выяснить, какую погрешность вносит компьютер. Затем применить соответствующий метод коррекции систематической погрешности. Если убрать эту погрешность не удалось, её надо хотя бы как-то оценить. Вот стандартный пример:
> 0.1*0.2
< 0.020000000000000004
Видно, что погрешность равна 4e-19, т.е. 0.1*0.2=0.020000000000000000+-0.000000000000000004. Ну короч понятно, что есть какая-то погрешность.
Ну а если всё-таки вам нужна точность, то это количество знаков после запятой перед первой значащей цифрой погрешности. А может и нет. Нет понятия точности, насколько мне известно.