Кто мешает на вход сети подавать вектор, а не один сигнал? Нейрону первого слоя всё равно, сколько входов приходит (количество весов будет равно количеству входов плюс одно смещение).
Евгений Лернер, Вкратце, ситуация такая. Имеем большой шум. Нейронная сеть тоже будет предсказывать дикие колебания. Хотя, если обучение не получится, то будет выдавать просто предыдущий сигнал с небольшим изменением. Можно избавиться от шума. Напр., берём скользящее среднее (5 прошлых отсчётов, текущий и 5 следующих). С таким сдвигом отстаём на 5 отсчётов. Плавную кривую можно прогнозировать на 1-2 шага, но нужно-то 6! Если не делать сдвиг назад, то будет виляющий хвост, т.е. на первом шаге будет один прогноз, а на следующем (и дальше) уже другой.
Евгений Лернер, Какой ответ вы хотите получить? Есть общий принцип: несколько слоёв, для каждого слоя одинаковая функция активации. Количество нейронов в каждом слое неизвестно. Постарайтесь более чётко формулировать желания.
В каждом слое любое количество нейронов: хотите один, хотите 100.
Каждый нейрон считает взвешенную сумму входов (плюс смещение), затем к результату применяет функцию активации. Выходы нейронов одного слоя идут на входы другого.
Неужели не знаете основ?
Вообще-то современные архитектуры перешли на матрицы корреляции (внимание-attention, трансформеры), позволяющие параллельную обработку большого куска входа, так что свёрточные фильтры и ячейки памяти ушли в прошлое.
Мне кажется, что проще сделать сдвижную дверь. В Умном доме такие приводы используются для штор и окон. На концах стоят датчики, либо импульс открытия-закрытия привязывается ко времени движения (с небольшим запасом).
А обязательно рисовать? Есть курсы на Интуите у Сергея Абрамова, на Степике у Дениса Москвина. Они преподают без рисунков.
Просто скажите, что переменных (ячеек памяти) нет, а циклы заменены рекурсивным вызовом функций.
Вообще обработка данных давно существует у DSP (digital signal processors): на вход функции подаются данные, на выходе - результат.