@daniil14056

Нейронная сеть при разных начальных весах дает разный ответ?

О чем может говорить в многослойном парцептроне по методу backpropagation, когда результат выполнения рабочего примера довольно сильно колеблется. А меняются только случайные веса. Но ведь по идее они должны стремиться к некоторым значениям спустя сотню эпох.
Нашел Теорему сходимости перцептрона. Реализацию уже 2 суток разбираю, какие могут быть причины.
  • Вопрос задан
  • 31 просмотр
Пригласить эксперта
Ответы на вопрос 1
freeExec
@freeExec
Участник OpenStreetMap
Да, вы оказываетесь в разных локальных минимумах. Можно поиграться с параметрами L1, L2 или выбрать другой оптимизатор для градиентного спуска.
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы