Эволюция человеческих систем счисления интересна. Во-первых, борьба за то, чтобы придумать счетную базу. Затем вы обнаружите, что у вас 10 пальцев! И поэтому вы можете использовать «лоты по 10». Тогда есть еще одна проблема: вам нужен символ для каждого возможного счета/количества, например, 0,1, 2, 3 и т. д. Теперь, когда вы можете правильно считать такие вещи, как ваши деньги, все это происходит так естественно, не так ли?

Я думаю, что позже было бы проще описать двоичную систему в вычислениях. Бит, как и переключатель, может принимать только одно из двух значений: включено или выключено, 1 или 0. А как насчет других распространенных цифровых систем счисления: шестнадцатеричной и восьмеричной? Почему они были распространены в использовании компьютеров? Сегодня, например, шестнадцатеричный формат используется для представления адресов памяти и данных. Существует множество технических объяснений того, почему, скажем, шестнадцатеричная система более практична, чем десятичная, но я не буду углубляться в это.

Короткий ответ: люди (или программисты?) ленивы. В случае с двоичным кодом они не хотели бы иметь дело с длинными строками чисел. Если вы посмотрите внимательно, вы заметите, что существует прямая связь между двоичной системой и двумя другими, в том смысле, что 3 бита соответствуют 1 восьмеричной цифре, а 4 бита — 1 шестнадцатеричной цифре, так что есть элемент конвертируемости. Таким образом, они более компактны, удобны и менее подвержены ошибкам для людей.

И последнее замечание: даже если ваши данные или программы представлены в шестнадцатеричной форме, помните, что в конечном итоге их необходимо преобразовать в двоичную форму, потому что компьютеры могут выполнять только двоичный код.

PS: Оказывается, за всем этим стоит история. Вот интересный ответ Толги (и горячие дебаты) на связанный вопрос по этой ссылке: https://www.researchgate.net/post/Why_we_are_using_HEXADECIMAL_values_for_computer_addressing