@gizgiz

Pytorch функция CrossEntropyLoss, что внутри?

Здравствуйте. Такой вопрос.
Есть функция потерь nn.CrossEntropyLoss() (кросс-энтропия, перекрестная энтропия)
Есть ссылка на документацию https://pytorch.org/docs/stable/nn.html?highlight=...

Проблема в том, что во всех источниках кросс-энтропия обозначается как -SUM( t[i] * log(p[i]) ), где t[i]-target, p[i] - prediction.
Но в документации совсем другая формула.

Почему такие отличия(и есть ли они на самом деле)?
  • Вопрос задан
  • 680 просмотров
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы