コンピュータの数値変換はどのように機能しますか? どのくらい時間がかかりますか?

コンピュータの数値変換はどのように機能しますか? どのくらい時間がかかりますか?

2 つの 10 進数を加算し、その結果を画面に印刷するとします。たとえば、12345678 + 343567 などです。これはレジスタ内の値や論理「AND」ゲートなどで実行されることはわかっていますが、コンピューターはこの数値 (12345678) の表現が 2 進数でどのように表示されるかをどのように認識するのかが疑問です。たとえば、私のマイクロコントローラーでは、値 (8 ビット) をレジスタに入力するのに 1 クロック サイクル (135ns) かかり、R1 を R2 に加算するのにも同じ時間がかかります。では、なぜこれほど速く実行できるのでしょうか。入力された 10 進数を 2 進数に変換し、1 クロック サイクルでレジスタに格納します。

また、CPU が IEEE 754 表記法を使用する場合、さらに多くの操作を実行する必要があります。これは簡単で馬鹿げた質問かもしれませんが、理解できません。コンピューターが、どの論理ゲートに電流を流し、どの論理ゲートに流さないかを非常に速く認識して、10 進数を 2 進数で表現する方法を誰か説明してもらえませんか。

関連情報