Позволяет ли Python использовать всю мощь современных видео карт nVidia для расчетов?
Собираюсь купить новую видеокарту Nvidia 1050 или 1070. Часто провожу тестовые расчеты с помощью библиотек генетических алгоритмов и нейросетей с различными переборами, тестирую разные идеи.
Позволят ли мне эти видеокарты получить реальный прирост скорости в расчетах на Python?
Можно использовать облачные сервера, но они стоят денег, а меня на компьютере все может бесплатно хоть сутками считаться.
Олег Петров, да, как минимум. Потому, что современные нейронки требовательны к этому показателю. И учиться будут в разы дольше, и работать большие сети не смогут.
Я сейчас говорю про компьютерное зрение, возможно в других областях не так критично — но мало ли чем придется заняться в будущем, железо все-таки покупается не так часто.
Да, да, JaxxDexx, не успел, все верно: https://developer.nvidia.com/how-to-cuda-python
Сам, правда не пользую, ибо на T5450 + GeForce 8400M G на 2-ух гигах оперативы банально бессмысленно. Но, НО! На "большом" компе(i3-540/9800GT/16Гб) параллелка делает 200-250% прироста на обработке огромных JSON.
А как давно он был создан? Я видел там Q-learning уже внедрен. Правда я разбирался с крестиками-ноликами не просто так, а хочу постепенно дополнять и усложнять свои знания. Моя ИКР - это захостить игру тут www.computerpokercompetition.org и потом смоделировать игру против 5 оппонентов, предварительно создав профили реальных игроков.
Вот пытаюсь определиться какой тип Machine learning лучше подойдет. Кодить естественно буду не я, а настоящие профи, но нужно грамотно сформулировать для них задачу, а для этого понять наиболее подходящие для такой задачи алгоритмы.
Кодить естественно буду не я, а настоящие профи, но нужно грамотно сформулировать для них задачу, а для этого понять наиболее подходящие для такой задачи алгоритмы.
xmoonlight, Ну, когда я делал в прошлом проекты, то я понял, что делаю некоторые вещи непозволительно долго, а другие наоборот довольно быстро. Поэтому проще делегировать сложные куски кода с адекватную плату, и тогда проект реализуется намного быстрее.
Олег Петров, ну тогда я не понимаю разницы: "настоящие профи" и "обычный кодер". Алгоритм-то (как я понял) Вы всё равно дадите тем, кого будете нанимать?
Просто нанять НОРМАЛЬНЫХ кодеров на нужном языке программирования и без привязки к тематике (ML/не ML - им не должно быть это важно).
Верно?
xmoonlight, Да верно, под профи я имел ввиду людей с навыками абстракции выше моих, с хорошей дисциплиной и без мании гениальности. Для Вас это возможно будет нормальный кодер. =)
Идея в том, чтобы дать кому-то задание, нужно написать подробное ТЗ, а чтобы написать подробное ТЗ , нужно подробно знать, как работает тот или иной метод, а чтобы узнать как он работает нужно хотя бы что-то закодить, даже совсем простое. Вот такая у меня логика.
Олег Петров, про X-O добавлю: всегда анализируйте два параллельных "дерева" с прямо противоположными целями:
1. Как быстрее выиграть
2. Как быстрее проиграть
Тогда возможно будет предсказывать ход избегая ошибок предыдущих партий с максимальной эффективностью.
Олег Петров, Именно так!
И добавлю к уже сказанному вами:
1. При отсутствии информации для последующего хода из дерева положительной стратегии, мы используем уклонения от проигрыша из "дерева" отрицательной.
2. Также, при отсутствии информации о следующем лучшем ходе, можно ориентироваться не только следующие ходы, но и на лучшие последовательности ("цепочки" ходов или комбинации), ВОЗМОЖНО! приводящие к выигрышу. Здесь также учитываться должны: как положительные "цепочки", так и отрицательные.