¿Cómo funciona la conversión de números de computadora? ¿Cuánto se tarda?

¿Cómo funciona la conversión de números de computadora? ¿Cuánto se tarda?

Supongamos que quiero sumar 2 números decimales e imprimir el resultado en la pantalla. Por ejemplo, 12345678 + 343567. Sé que se hace con valores en registros, en puertas lógicas "Y", etc., pero mi pregunta es ¿cómo sabe la computadora cómo se ve la representación de este número (12345678) en binario? Por ejemplo, para mi microcontrolador, se necesita 1 ciclo de reloj (135 ns) para ingresar un valor (8 bits) en un registro y la misma cantidad de tiempo para agregar R1 a R2. Entonces, ¿cómo es posible que se haga tan rápido? Convertir el número decimal ingresado a su forma binaria y almacenarlo en el registro en 1 ciclo de reloj.

Además, si la CPU usa la notación IEEE 754, tiene que realizar muchas más operaciones. Esta puede ser una pregunta fácil y tonta, pero no puedo entenderla. ¿Alguien puede explicarme cómo se hace que la computadora sepa tan rápido a qué puerta lógica pasa la corriente y a cuál no hacerlo, para hacer una representación binaria de un número decimal?

información relacionada