У меня есть программа, в которой я имею дело с множеством очень маленьких чисел (ближе к нижнему пределу двойных пределов).
Во время выполнения моего приложения некоторые из этих чисел постепенно уменьшаются, что означает, что их «оценка» менее точна.
Мое решение на данный момент состоит в том, чтобы увеличить их, прежде чем я буду делать какие-либо расчеты, а затем снова уменьшить их?
... но это заставило меня задуматься, действительно ли я получаю больше «точности», делая это?
Мысли?