@PrizmMARgh

Какой аналог метод ньютона для многомерного пространства?

Существует метод Ньютона для нахождения нуля функции: x -> x-y/y' и метод градиентного спуска для нахождения минимума функции: x -> x - a*gradx.
Можно ли их "скрестить" и получить более оптимальную версию градиентного спуска, например формулой x -> x - a*y*gradx/(|gradx|^2)? Если да, то как это сделать правильно? А если нет, то почему?
  • Вопрос задан
  • 83 просмотра
Решения вопроса 1
@PrizmMARgh Автор вопроса
Спустя некоторое время выяснила, что всё описанное выше - частные случаи оптимизаторов (в вопросе забыла уточнить, что всё это необходимо было для обучения нейросети градиентным спуском), например - оптимизатора adam. Им пользоваться проще всего.
Ответ написан
Комментировать
Пригласить эксперта
Ответы на вопрос 1
@illaaa
Не совсем понимаю, в чем суть задумки. А вернее, какой результат вы хотите получить?

Метод Ньютона находит ноль функции - просто точку, в которой функция будет равна нулю.
Метод градиентного спуска находит минимум функции (не всегда глобальный).
Ноль функции не обязательно должен быть ее минимумом.
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы