koshelevatamila4741, бери больше данных (большее количество батчей - не 15, а сотку), запускай разные модели на одинаковых данных и смотри на время одного шага, которое выводит метод predict. А потом применяй модель не к батчам, а к одной строке данных, опять смотри на время. Путь максимально прямолинеен.
koshelevatamila4741, прям в этом выводе пишется - 2 секунды на шаг, это оно. Сравнивать значения напрямую не имеет смысла - железо разное, версии кода и драйверов разные, размеры батчей разные, настройки расчета/распараллеливания разные.
Керас же по умолчанию возвращает время выполнения расчетов. Параметр verbose в обучении/применении модели и т.д. Один раз какой-нибудь код с керасом сам запустишь и все это увидишь.
Обычно при создании виртуального окружения на винде все необходимые длл-ки от майкрософта уже там находятся, а все популярные библиотеки устанавливаются в скомпилированном виде. Стоит начать с документации модуля/библиотеки, а именно пункта "как устанавливать".
colorname, там в описании сказано про обновленные издания, про стандарты языка и про то, какие книги предпочесть устаревшим или ранним. Потрать уж 15 минут самостоятельно на прочтение. А потом выбирай одну из самых новых книг для своего уровня заний, не будешь же ты их все друг за другом читать.
У меня такое бывало на двух старых компах из-за статического электричества. Без щелчков и пореже, конечно. У всех компонентов к статике разная чувствительность - тут не угадаешь и никто не шарит, только экспериментировать самому. Мне помогло поднять системник на стол, отодвинуть от себя, и поддерживать норм влажность зимой. Потом я монитор и корпус менял - эффект был заметен от каждого из них, но полностью проблема не пропала. Говорят, что беспроводные подключения помогают, но с монитором не прокатит. С новым компом (уже не дешманским) такой проблемы просто нет, только из-за разрядов статики мышка перестает двигаться на секунду.
В линуксе есть diff. На винде я себе для такой задачи написал питоновский скрипт в 10 строчек. Облака позволяют делать синхронизацию и скачивать бекапы, так что норм вариант, сам пользуюсь. Ну, или можно один раз в одном месте все собрать, только в нем делать изменения и перезаписывать копии в других местах.
Можно и два скрипта в одном проекте запускать. И несколько проектов. Сначала надо отметить allow parallel run в окне run/debug configuration. И там же все настраивать подробно.
Как будто выбор есть. Только разные модели от нвидиа. Амд видеокарты тоже много где работают, но требуют знаний, понимания и настройки. А нвидиа работает сразу из коробки. Для попробовать что-то реальное пойдут любые не слишком старые видеокарты с объемом памяти 16+ ГБ уровня десктоп или рабочая станция. Полный список есть на википедии.
Пользователь бота (человек) и пользователь БД (процесс с питоновским кодом) - это разные сущности. Не смешивай их и разберись кто есть кто в твоей проблеме. Учебники и курсы для начинающих по питону и базам данных через питон помогут разобраться с такими вопросами.
Сейчас 3060 ti, наверное, лучший вариант для 1080p. Но 40к за новую. И все прочее под нее подходящее - на уровне 80к. Вариант попроще и дешевле: 3060 / rx6600 + i3 / ryzen3. Плюс поискать подешевле по разным магазинам. Это уже вполне пройдет в бюджет. Но вариант не самый оптимальный.
Тут самая требовательная из указанных игр - это Ведьмак 3 (или не 3?), потерявший производительность с недавней обновой. Для уверенной и стабильной производительности fullhd@60hz@ultrasetting нужна видеокарта уровня 3060ti или rx6600xt и любой проц уровня i5 или ryzen 5. Уложиться в 75 будет не просто. Где-то придется резать.
Драйвера должны стоять. И сама куда вместе с библиотеками для нейросетевых расчетов. Все подробно описывается в куче гайдов от самого пайторча и в куче разных источников. "pytorch get started". "pytorch guide with gpu". https://pytorch.org/get-started
Убери 0, будет просто GPU - все, что доступны. Либо оставь, чтобы использовать конкретную видеокарту, - полезно для параллельного запуска нескольких экспериментов на разном железе. Видеокарты должны быть одинаковые. Так и гугли "pytorch use gpu", "pytorch use multiple gpu".
Вполне жизнеспособный подход. Я именно так на работе своей делаю. У тебя, правда, в коде есть лишние действия - каждый раз сплит при фиксированном рандоме, рок-кривая, хотя можно сразу аук считать. Я в такой код, в самый внутренний цикл обычно добавляю
del model
gc.collect()
Ну, и результаты лучше сохранять в файл или бд, чтоб они в памяти не копились.
Так гугли "godot vehicle tutorial". А потом добавляй "car", "racing" и т.д. Дорогу осилит идущий. На что-то масштабное и цельное не надейся. И, конечно, все материалы будут на английском.
Из каждой группы сильно скоррелированных данных (столбцов) удаляем все кроме какого-то одного. Иначе получим, что по факту одинаковые данные продублированы (увеличен их вес в несколько раз - по количеству скорелированных столбцов). Корреляция 0% - это идеал. Корреляция выше 50% - это плохо. Между этими значениями - нормально. Нередко из двух скореллированных столбцов делают один двумерный - бинят сразу пару совместно, если пара добавляет полезную информацию.
Откуда такая формула для среднего? А если чисел будет 3? Вопрос, кончено, уровня ленивого и глупого школьника. Но и ответ какой-то цирк с конями. Если в гугле забанен, то любой другой поисковик легко найдет и расскажет, как посчитать среднее значение любого количества чисел.