Wie funktioniert die Computernummernkonvertierung? Wie lange dauert sie?

Wie funktioniert die Computernummernkonvertierung? Wie lange dauert sie?

Nehmen wir an, ich möchte zwei Dezimalzahlen addieren und das Ergebnis auf dem Bildschirm ausdrucken. Zum Beispiel 12345678 + 343567. Ich weiß, dass dies mit Werten in Registern, logischen „UND“-Gattern usw. geschieht, aber meine Frage ist, woher der Computer weiß, wie diese Zahl (12345678) binär dargestellt wird. Zum Beispiel dauert es bei meinem Mikrocontroller 1 Taktzyklus (135 ns), um einen Wert (8 Bit) in ein Register einzugeben, und die gleiche Zeit, um R1 zu R2 zu addieren. Wie ist es also möglich, dass dies so schnell geht? Die eingegebene Dezimalzahl wird in ihre Binärform umgewandelt und in einem Taktzyklus im Register gespeichert.

Wenn die CPU die IEEE 754-Notation verwendet, muss sie außerdem viel mehr Operationen ausführen. Das ist vielleicht eine einfache und dumme Frage, aber ich verstehe sie nicht. Kann mir bitte jemand erklären, wie es gemacht wird, dass der Computer so schnell weiß, an welches Logikgatter der Strom fließen soll und an welches nicht, um eine binäre Darstellung einer Dezimalzahl zu erstellen?

verwandte Informationen