Пописываю на Go, услышал про machine learning, тоже хочу, как все. Нашел биндинги к tensorflow, у Python побогаче будет. А нельзя без тензоров (да кто сегодня из искусственных интеллектуалов два тензора умножит), а напрямик симулировать нейроны и связи легкими потоками и каналами обмена? Есть хотя бы документированные неудачи? Или даже думать забыть?
Напрямую можно симулировать нейроны, и даже математика вся уже написана. Но на современном железе получится запустить не более миллиона (плюс/минус два порядка) нейронов, а в человеческом мозге около 100 млрд. Тензорфлоу оперирует матрицами, а операции над ними хорошо векторизируются и имеют производительные реализации не только для центрального процессора, но и для GPU и кластеров, вследствие этого получается обсчитывать на пару порядков больше нейронов.
Сделать можно. Вопрос эффективности.
В одном потоке вы можете обработать один нейрон, но эффективнее будет целую сеть .
Т.о. вы приходите к тому, что обрабатывать нужно параллельно несколько сетей.
Теперь с учетом того, что сеть вы будете обрабатывать с помощью TensorFlow и т.п. приходим к тому, что Erlang нужен лишь для того, чтобы быть клеем между такими частями программы.