Задать вопрос
@CeBePHblY

Стоит ли тасовать данные для обучения нейросети во время обучения?

Где то мельком читал, что для более быстрой сходимости, желательно тасовать входные данные для нейросети в процессе обучения. Где можно почитать об этом? Стоит ли игра свеч?
Второй вопрос, если это выгодно для поставленных задач, то как правильно это сделать?
Так?

Было так:
[0, 0, 1, 1]
[0, 1, 0, 1]
[1, 1, 0, 0]
Тасуем, стало так:
[0, 1, 0, 1]
[1, 1, 0, 0]
[0, 0, 1, 1]
Т.е. перетасовали случаи

Или так?

Было так:
[0, 0, 1, 1]
[0, 1, 0, 1]
[1, 1, 0, 0]
Тасуем, стало так:
[0, 1, 1, 0]
[1, 0, 1, 0]
[1, 0, 0, 1]
Т.е. перетасовали значения в каждом случае
  • Вопрос задан
  • 150 просмотров
Подписаться 1 Простой Комментировать
Решения вопроса 1
thelongrunsmoke
@thelongrunsmoke
Программист
Смысл в том, что для каждого этапа вы делаете случайную выборку из исходного датасета. Это позволяет ускорить процесс и избежать переобучения. Почитайте "Глубокое обучение. Погружение в мир нейронных сетей".
Ответ написан
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы
18 янв. 2025, в 03:12
1000 руб./за проект
18 янв. 2025, в 00:01
500 руб./за проект
17 янв. 2025, в 23:56
10000 руб./за проект