Задать вопрос
@Mikle322

Почему при обучении нейросети нельзя просто вычислить ошибку и подставить такие веса, при которых ошибка будет равна 0?

Приведу пример:
5e7e2c8c1aaa9185369317.jpeg
Почему в данном примере(при вычислении direction_and_amount) нельзя вместо умножения на input сделать операцию деления? Тогда бы нужный вес нашёлся уже на второй итерации.

Я новичок, поэтому, возможно, вопрос покажется глупым. Прошу строго не судить.
  • Вопрос задан
  • 87 просмотров
Подписаться 1 Простой Комментировать
Помогут разобраться в теме Все курсы
  • Skillbox
    Профессия Machine Learning Engineer
    12 месяцев
    Далее
  • PIX Академия
    Базовый курс RPA разработчика
    1 неделя
    Далее
  • Учебный центр IBS
    AI-006 Технологии искусственного интеллекта: машинное обучение и нейросети
    1 неделя
    Далее
Решения вопроса 1
NeiroNx
@NeiroNx
Программист
Подставляя такие веса вы настраиваете нейросеть на "конкретный" экземпляр - вырванный из статистики.
Это все равно что сказать что все апельсины одного цвета #fdaf21 а цвета #fdaf22 и #fdaf20 это уже не апельсин а что-то другое.
Ответ написан
Пригласить эксперта
Ответы на вопрос 2
В этом утрированном примере — можно.

В более сложных сетях искомая зависимость неизвестна,
поэтому веса подбирают маленькими шажочками.
Ответ написан
Комментировать
xmoonlight
@xmoonlight
https://sitecoder.blogspot.com
Можно, но иногда точное вычисление ошибки на каждой итерации сравнимо с созданием ещё одной параллельной нейросети или аналитической системы.
Поэтому, если результат >90% - считают: "И так сойдёт!"... :((

Кстати, если изначально правильно построить мат.модель НС - можно вообще исключить появление ошибок.
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы