Я написал программу в которой реализовано самообучение популяции при помощи генетического алгоритма на python3 + pygame. Все вычисления производятся на CPU.
Пока производительности CPU хватает , но я хочу написать более сложную программу с большим количеством вычислений. CPU от такой волны вычислений захлебнётся просто ! Помогите с информацией о вычислении на GPU , я таким никогда не занимался .Я уже довольно давно задался этим вопросом , но в большинстве статей просто показываются примитивные примеры , и ничего толком не объяснится. А без систематизированных знаний ничего не получается . Пока единственное , что я понял это то , что нужно использовать NumPy массивы для хранения данных .
Буду рад любой систематизированной информации ! От книг , до статей и видео на русском и английском языках . Желательно на русском. )