OpenCL을 사용하여 일부 GPU 계산을 수행하고 있는데 카드의 FLOPS를 계산하는 데 어려움을 겪고 있습니다. 내가 사용하고 있는 float의 FLOPS 공식은 매우 간단합니다.
frequency * cores * (instructions/cycle)
where: instructions/cycle is 4 for CPU and 2 for GPU
문제는 배정밀도에서 특정 카드의 이론적 최고 성능을 어떻게 계산할 수 있느냐는 것입니다. 내 카드는 GeForce GTX 580입니다.
--다니엘.
답변1
[1.544 GHz] * [512 CUDA Cores] * [2 double precision floating point operations/8 clock cycles] = 198 GFLOPS.
특히이 seibert의 의견위 스레드에서는 2/8이 방정식에 나타나는 위치에 대해 자세히 설명합니다.