Добрий день.
Мне пришла идея с одним алгоритмом для спаечной НМ.
Вот суть.
На группе хаотично соединенных наронов применять SDTP функцию для создания ассоциаций с входом и выходом (выход - это две отдельные группы нейронов А и Б. На вход НМ подаем сигнал хаотической структуры и активируем случайный один из выходов ,для создания ассоциативной связи.
После серии повторений начинается процесс основного обучения.
На вход подается сигнал определенной структуры и Нм выдает один из двух вариантов А или Б.Если вариант неправильный (А а нужно Б), тогда блокируем определенные нейроны, составляющие структуру сигнала приведшую к результату А. Ів теории она может издать Б.
Точно не знаю на этапе ли хаотических сигналов, А и Б должны случайно активироваться с одинаковым шансом или разным.
Вопрос к опытным ли такая модель сработает.? Будет интересно услышать ваши мысли
Mersi_dems, на самом деле только ты сам сможешь ответить на этот вопрос проведя эксперименты. Наука НС активно развивается последние 10 лет. И алгоритмов обучения - бесчисленное множество. Как и топологий сети уже придумали целую кучу. И прямого распространения. И рекуррентные.
Тоесть вся эта наука - это сплошная практика и наблюдения. Там теория была только в чести Колмогрова-Арнольда для аппроксимации функции множеством других. И для доказательства сходимости там тоже была теория.
А все остальное - это как селекция в сельском хозяйстве. Берут какой то метод. Пробуют. Подошел? ОК. Потом улучшают. Короче генетические алгоритмы управляют улучшениями над архитектурами НС.
Вобщем пробуй и приходи с результатом. Ты скорее всего ближе всех к симуляции твоей идеи. Вряд ли кто-то в топике захочет опровергать твою идею.
блокировка временная ,для смены паттерна сигнала(Изменение потока с А в Б).Обучение хаотическим сигналам требуется, чтобы сеть знала только 2 варианта ответа(если не А то Б , если не Б то А)