Идея алгоритма состоит в повышении точности машинного представления чисел в выбранном диапазоне, за счет снижения точности за его пределами.
Грубо, в интервал [-a..a] попадает 90% всех чисел и их нужно представлять с высокой степенью точности. Оставшиеся 10% попадают в интервал [-10a..10a]. Их тоже надо регистрировать, но требования к точности минимальны. Память ограничена.
Еще грубее. С помощью одного байта можно представить числа из диапазона -128..127 с точностью до целых. Как одним байтом закодировать числа интервала [-10..10] с точностью до 0.125, а числа интервалов [-128..-10, 10..127] с точностью +-5?
"Пишите код так, как будто сопровождать его будет склонный к насилию психопат, который знает, где вы живете". (с) Макконнелл, "Совершенный код".