Задать вопрос
@gizgiz

Pytorch функция CrossEntropyLoss, что внутри?

Здравствуйте. Такой вопрос.
Есть функция потерь nn.CrossEntropyLoss() (кросс-энтропия, перекрестная энтропия)
Есть ссылка на документацию https://pytorch.org/docs/stable/nn.html?highlight=...

Проблема в том, что во всех источниках кросс-энтропия обозначается как -SUM( t[i] * log(p[i]) ), где t[i]-target, p[i] - prediction.
Но в документации совсем другая формула.

Почему такие отличия(и есть ли они на самом деле)?
  • Вопрос задан
  • 790 просмотров
Подписаться 1 Средний 2 комментария
Помогут разобраться в теме Все курсы
  • Нетология
    Fullstack-разработчик на Python + нейросети
    20 месяцев
    Далее
  • Skillfactory
    Профессия Python-разработчик
    9 месяцев
    Далее
  • SF Education
    Бэкенд-разработчик на Python
    3 месяца
    Далее
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы