Ага, то есть на самом деле нет необходимости читать все эту обширную теорию, а понять градиентный спуск и попробовать обучить сеть? Этого достаточно для вхождения в область?
Новому нужно всегда обучаться на конкретной задаче.- это правильно, только надо добавить "предварительно накопив фундамент, на котором эту задачу в принципе можно понять(!!!) а потом решить". А иначе все может свернуться к тому, о чем говориться в другой ветке этой тему : "Достаточно разобрать как работает код этой сети" и гордо считать себя после этого специалистом по машинному обучению.
А что если я использую логистическую регрессию в задаче бинарной классификации?- не имеет значения, как (по недоразумению) этот метод обзывают, от этого суть не меняется. Т.е. это классифкация.
Что в контексте нейросети могут значить Saturated Model и Null Model?"Нейросеть"- это не модель, а метод. Вот если вы с помощью этого метода строите регрессионную модель - тогда они будут обозначать то-же, что и в классическом случае - тривиальную модель и наиболее полную модель. А если с помощью нейросети вы строите классификационную модель - то скорее всего, они не будут значить ничего. (Я так предполагаю, хотя при желании и в этом случае можно придумать тривиальный классификатор и переобученный классификатор. Но у меня сейчас нет под рукой источников, что-бы проверить эту догадку. Может быть кто в теме - меня тут подправит).
Можете не благодарить.