Как правильно считать количество операций в секунду?

Допустим (ах если бы) у меня есть Intel Xeon E5-2699V4 Broadwell-EP 2200MHz 22 ядра и Nvidia Geforce GTX 1080Ti 1582MHz 3584 ядра. Считаем: (1582000000*3584)/(2200000000*22)=117, то есть видеокарта за 50 тыс. в 117 раз производительнее процессора за 220 тыс.
В чём тут ошибка и как считать правильно?

P.S. заинтересовало рассчитать разницу скоростей взлома на CPU и GPU.
P.P.S. допустим, что программа правильно распределена по ядрам и занимает всю доступную вычислительную мощность
  • Вопрос задан
  • 2005 просмотров
Пригласить эксперта
Ответы на вопрос 1
@victorinamina
1. Смотря на каких операциях.
Операции бывают ОЧЕНЬ разные.

2. Смотря какой софт.
Если у вас есть софт, способный распараллеливаться и выполняться на GPU - у GPU больше операций будет на несколько порядков, да.
А, скажем, если вы каждый перебор пароля проверяете методом отправки на сервер в интернете - разницы нет.
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы