Как правильно считать количество операций в секунду?
Допустим (ах если бы) у меня есть Intel Xeon E5-2699V4 Broadwell-EP 2200MHz 22 ядра и Nvidia Geforce GTX 1080Ti 1582MHz 3584 ядра. Считаем: (1582000000*3584)/(2200000000*22)=117, то есть видеокарта за 50 тыс. в 117 раз производительнее процессора за 220 тыс.
В чём тут ошибка и как считать правильно?
P.S. заинтересовало рассчитать разницу скоростей взлома на CPU и GPU.
P.P.S. допустим, что программа правильно распределена по ядрам и занимает всю доступную вычислительную мощность
1. Смотря на каких операциях.
Операции бывают ОЧЕНЬ разные.
2. Смотря какой софт.
Если у вас есть софт, способный распараллеливаться и выполняться на GPU - у GPU больше операций будет на несколько порядков, да.
А, скажем, если вы каждый перебор пароля проверяете методом отправки на сервер в интернете - разницы нет.