Kojanseed: чтобы понять, как обучаются НС, надо читать о алгоритме обратного распространения ошибки (backpropagonation). Глубокие нейронные сети, чтобы избежать затухания градиента, обучают на неразмеченной выборке с помощью разбиения слоев НС на ограниченные больцмановские машины (RBM)
В этой серии роликов хорошо описаны проблемы и их решения: https://www.youtube.com/watch?v=b99UVkWzYTQ