Como funciona a conversão de números de computador? Quanto tempo leva?

Como funciona a conversão de números de computador? Quanto tempo leva?

Vamos supor que eu queira somar 2 números decimais e imprimir o resultado na tela. Por exemplo 12345678 + 343567. Eu sei que isso é feito em valores em registros, em portas lógicas "AND" etc. mas minha pergunta é como o computador sabe como essa representação de número (12345678) aparece em binário? Por exemplo, para meu microcontrolador, leva 1 ciclo de clock (135ns) para inserir o valor (8 bits) em um registro e a mesma quantidade de tempo para adicionar R1 a R2. Então, como é possível que isso seja feito tão rapidamente? Converter o número decimal inserido em sua forma binária e armazená-lo no registro em 1 ciclo de clock.

Além disso, se a CPU usar a notação IEEE 754, será necessário realizar muito mais operações. Esta pode ser uma pergunta fácil e boba, mas não consigo entender. Alguém pode me explicar como é feito que o computador saiba tão rápido para qual porta lógica passa a corrente e para qual não fazê-lo, para fazer representação binária de um número decimal?

informação relacionada