Функция активации для многослойной нейронной сети?
решаю задачу xor для многослойной нейронной сети с обратным распространением ошибки. На выходе два числа a и b [равные 0 или 1 ] а на входе должен получить xor ( a , b )
Использую сигмоидную функцию. 1 / ( 1 + exp ( - x ) )
разумеется не могу получить точный ответ , только какое-то приближение.
Есть ли функции позволяющие точно решить такую задачу ?
Если есть , то можно пример функции.
В вашем случае я думаю целесообразно было бы округлять до ближайшего целого.Но если хотите получать более точный результат, то существует огромное количество функций ,которые можно попробовать в качестве функции активации для ваших нейронов.В частности:
Линейная передаточная функция
Пороговая передаточная функция
Сигмоидальная передаточная функция
Логистическая функция (которой вы пользуетесь в данный момент)
Гиперболический тангенс
Модифицированный гиперболический тангенс
Радиально-базисная функция передачи
И еще много-много функций