@koshelevatamila4741

Как правильно измерить inference time и FLOPs модели?

Почему-то не могу найти встроенных решений (не уж что нет?) в keras и tensorflow, при этом на сайте
https://keras.io/api/applications/ они предоставляют Time (ms) per inference step (CPU), а почему-то не описали, как вычислили, какую функцию использовали.
  • Вопрос задан
  • 134 просмотра
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы