http://en.wikipedia.org/wiki/Binary_GCD_algorithm
Эта запись в Википедии имеет очень неудовлетворительный вывод: когда-то алгоритм бинарного НОД был на 60 % эффективнее стандартного алгоритма Евклида, но уже в 1998 году Кнут пришел к выводу, что эффективность его современника увеличилась всего на 15 %. компьютеры.
Что ж, прошло еще 15 лет... как эти два алгоритма сочетаются сегодня с достижениями в области аппаратного обеспечения?
Продолжает ли двоичный GCD превосходить алгоритм Евклида в языках низкого уровня, но отстает ли он из-за своей сложности в языках более высокого уровня, таких как Java? Или разница спорна в современных вычислениях?
Почему меня это волнует, спросите вы? Так уж вышло, что сегодня мне приходится обработать около 100 миллиардов из них :) Вот тост за жизнь в эпоху вычислений (бедный Евклид).