Нейронная сеть при разных начальных весах дает разный ответ?
О чем может говорить в многослойном парцептроне по методу backpropagation, когда результат выполнения рабочего примера довольно сильно колеблется. А меняются только случайные веса. Но ведь по идее они должны стремиться к некоторым значениям спустя сотню эпох.
Нашел Теорему сходимости перцептрона. Реализацию уже 2 суток разбираю, какие могут быть причины.
то есть это нормально? Я вообще заметил что у меня ошибка на нейронах скрытых слоев не особо изменяется. Очень медленно уменьшается, и при этом прыгает как синусоида от -1 к 1 тогда как на выходных уже удовлетворяет 0.01. Это же ошибка значит у меня в реализации?