Как работает компьютерное преобразование чисел? Сколько времени это занимает?

Как работает компьютерное преобразование чисел? Сколько времени это занимает?

Предположим, что я хочу сложить 2 десятичных числа и вывести результат на экран. Например, 12345678 + 343567. Я знаю, что это делается со значениями в регистрах, с логическими вентилями "И" и т. д., но у меня вопрос: как компьютер узнает, как выглядит представление этого числа (12345678) в двоичном виде? Например, для моего микроконтроллера требуется 1 тактовый цикл (135 нс) для ввода значения (8 бит) в регистр и столько же времени для сложения R1 с R2. Так как же это возможно, что это делается так быстро? Преобразование введенного десятичного числа в его двоичную форму и сохранение в регистре за 1 тактовый цикл.

Также, если процессор использует нотацию IEEE 754, ему приходится делать гораздо больше операций. Это может быть простой и глупый вопрос, но я не могу его понять. Может кто-нибудь объяснить мне, как это делается, что компьютер так быстро знает, на какой логический вентиль передавать ток, а на какой нет, чтобы сделать двоичное представление десятичного числа?

Связанный контент