¿Alguna validación de velocidades y tiempos de memoria dispares?

¿Alguna validación de velocidades y tiempos de memoria dispares?

Yendo a la teoría (y suponiendo que el tiempo de bits, la velocidad de comando y el tiempo de ciclo son parte de la especificación y deben ser verdaderos y siempre los mismos para todos los componentes que dicen ser ddr4-xxx, lo cual me gustaría que se corrija si no lo son), tenemos:

Tipo Velocidad de datos poco tiempo tasa de comando Tiempo del ciclo Latencia CAS Primera palabra (ns) Cuarta palabra (ns) Octava palabra (ns)
ddr4-3200 3200 Tm/s .313 ns 1600MHz .626 ns 21 13.15 14.09 15.34
ddr4-2666 2666 Tm/s .375 ns 1333MHz .750 ns 11 8.25 9.38 10,88

Muestra que 2666 CAS 11 puede ser casi el doble de rápido con tiempos ns sin procesar.

¿Es esto cierto? ¿Estoy dejando de lado alguna parte de la teoría? ¿Alguien observó eso de primera mano o conoció una fuente creíble que midió algo similar en una aplicación del mundo real?

Respuesta1

Estás comparando la latencia y la velocidad general del módulo de una manera que no está relacionada.

Seguro que los tiempos ns de una solicitud inicial pueden ser más rápidos con una latencia CAS más baja, pero hoy en día la memoria normalmente transfiere datos en bloques más grandes, lo que significa que la latencia inicial es insignificante en comparación.

Elselecciónde una dirección en la RAM puede ser más lento, pero la mayor frecuencia de la RAM más rápida significa que las transferencias de datos reales ocurren más rápido.

El tiempo de "primera palabra (ns)" puede ser 5 ns más lento, pero en un cálculo aproximado, el módulo más rápido necesita transferir sólo 80 bits seguidos (usando los tiempos de bits: 5 ns ÷ (0,375 - 0,313) = 80,64) para compensar por ese retraso inicial.

DeDDR4

el tamaño de ráfaga básico es de ocho palabras de 64 bits y se logran anchos de banda más altos enviando más comandos de lectura/escritura por segundo.

Por lo tanto, una unidad de transferencia básica podría tener mucho más que 80 bits con múltiples solicitudes y un uso eficiente.

La latencia ralentiza esa solicitud inicial y afecta las velocidades de selección de direcciones de memoria, pero las transferencias masivas reales son mucho mayores en módulos de mayor velocidad.

La complejidad interna de los módulos ha aumentado para lograr un mayor ancho de banda masivo y una señalización más rápida; la desventaja es que la complejidad agrega latencia, pero eso casi siempre se compensa.


Piénsalo de esta manera:

La memoria de su sistema tiene este retraso inicial en la lectura. Una vez que sepa que siempre transferirá un tamaño de bloque particular y que esencialmente continuará esa transferencia independientemente de los cambios en las líneas de dirección, podrá cambiar la dirección para configurar el siguiente conjunto de bytes que desee.

Dependiendo de los bancos de memoria o de la configuración interna con buffers, básicamente puedes configurar las cosas para tu próxima transferencia con un costo casi nulo en términos de latencia. En teoría, los datos podrían estar listos para funcionar.

Puedes crear una cadena continua de "ahora estás haciendo eso, esto siguiente" con latencias en su mayoría ocultas detrás de la transferencia anterior. La electrónica más inteligente puede lograr tasas de transferencia más altas a frecuencias más altasylatencias más altas.

No todo lo que es "más lento" es realmente más lento.

información relacionada