
Estoy usando OpenCL para hacer algunos cálculos de GPU y tengo dificultades para calcular los FLOPS de mi tarjeta. La fórmula para FLOPS en float que estoy usando es bastante sencilla:
frequency * cores * (instructions/cycle)
where: instructions/cycle is 4 for CPU and 2 for GPU
El problema es, ¿cómo puedo calcular el rendimiento máximo teórico para una tarjeta en particular con doble precisión? Mi tarjeta es la GeForce GTX 580.
--Daniel.
Respuesta1
[1.544 GHz] * [512 CUDA Cores] * [2 double precision floating point operations/8 clock cycles] = 198 GFLOPS.
Especialmenteel comentario de este seiberten el hilo anterior se profundiza en los detalles de dónde entra el 2/8 en la ecuación.