@stayherenow

Обучение нейросети по распознаванию рукописного текста на русском. Как повысить loss при обучении?

Я пытаюсь написать нейросеть для распознавания рукописного текста на русском языке по фото. За основу взял статью на Хабре (https://habr.com/ru/articles/720614/) и соответственно код с гитхаба (https://github.com/CyberLympha/Examples/blob/main/...). Однако в этих примерах используется датасет IAM для английского языка, а доступ к HKR например я получить к сожалению не могу. Решил написать свой скрипт для генерации датасета, взял 2 рукописных шрифта, подключил словарь русского языка и наклипал 7200 изображений (в каждом пнг по 5 слов). При обучении параметр loss постоянно повышен и не может опуститься даже ниже 90.5. Я уже многое менял, включая скорость обучения, размер входных пакетов и параметры в callback'ах, но всё тщетно. Не могу понять, почему нейронка с датасетом, настолько схожий на IAM, не может также быстро и точно обучиться. Пробовал и оставлять один прописной шрифт и менять количество слов в одной картинке, но проблема остаётся той же. Что делать?
  • Вопрос задан
  • 144 просмотра
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы