@zero35657469845465

Имеет ли смысл менять batch_size при дообучении?

Заметил такую особенность: если я установлю batch_size, скажем, 32 и обучу модель, то при дообучении, если я поменяю batch_size, скажем, на 16, то модель немного откатится назад. Вопрос такой: имеет ли смысл менять batch_size при каждом дообучении?
  • Вопрос задан
  • 22 просмотра
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы