Здравствуйте. Такой вопрос.
Есть функция потерь nn.CrossEntropyLoss() (кросс-энтропия, перекрестная энтропия)
Есть ссылка на документацию
https://pytorch.org/docs/stable/nn.html?highlight=...
Проблема в том, что во всех источниках кросс-энтропия обозначается как -SUM( t[i] * log(p[i]) ), где t[i]-target, p[i] - prediction.
Но в документации совсем другая формула.
Почему такие отличия(и есть ли они на самом деле)?