Можно и два скрипта в одном проекте запускать. И несколько проектов. Сначала надо отметить allow parallel run в окне run/debug configuration. И там же все настраивать подробно.
Как будто выбор есть. Только разные модели от нвидиа. Амд видеокарты тоже много где работают, но требуют знаний, понимания и настройки. А нвидиа работает сразу из коробки. Для попробовать что-то реальное пойдут любые не слишком старые видеокарты с объемом памяти 16+ ГБ уровня десктоп или рабочая станция. Полный список есть на википедии.
Пользователь бота (человек) и пользователь БД (процесс с питоновским кодом) - это разные сущности. Не смешивай их и разберись кто есть кто в твоей проблеме. Учебники и курсы для начинающих по питону и базам данных через питон помогут разобраться с такими вопросами.
Сейчас 3060 ti, наверное, лучший вариант для 1080p. Но 40к за новую. И все прочее под нее подходящее - на уровне 80к. Вариант попроще и дешевле: 3060 / rx6600 + i3 / ryzen3. Плюс поискать подешевле по разным магазинам. Это уже вполне пройдет в бюджет. Но вариант не самый оптимальный.
Тут самая требовательная из указанных игр - это Ведьмак 3 (или не 3?), потерявший производительность с недавней обновой. Для уверенной и стабильной производительности fullhd@60hz@ultrasetting нужна видеокарта уровня 3060ti или rx6600xt и любой проц уровня i5 или ryzen 5. Уложиться в 75 будет не просто. Где-то придется резать.
Драйвера должны стоять. И сама куда вместе с библиотеками для нейросетевых расчетов. Все подробно описывается в куче гайдов от самого пайторча и в куче разных источников. "pytorch get started". "pytorch guide with gpu". https://pytorch.org/get-started
Убери 0, будет просто GPU - все, что доступны. Либо оставь, чтобы использовать конкретную видеокарту, - полезно для параллельного запуска нескольких экспериментов на разном железе. Видеокарты должны быть одинаковые. Так и гугли "pytorch use gpu", "pytorch use multiple gpu".
Вполне жизнеспособный подход. Я именно так на работе своей делаю. У тебя, правда, в коде есть лишние действия - каждый раз сплит при фиксированном рандоме, рок-кривая, хотя можно сразу аук считать. Я в такой код, в самый внутренний цикл обычно добавляю
del model
gc.collect()
Ну, и результаты лучше сохранять в файл или бд, чтоб они в памяти не копились.
Так гугли "godot vehicle tutorial". А потом добавляй "car", "racing" и т.д. Дорогу осилит идущий. На что-то масштабное и цельное не надейся. И, конечно, все материалы будут на английском.
Из каждой группы сильно скоррелированных данных (столбцов) удаляем все кроме какого-то одного. Иначе получим, что по факту одинаковые данные продублированы (увеличен их вес в несколько раз - по количеству скорелированных столбцов). Корреляция 0% - это идеал. Корреляция выше 50% - это плохо. Между этими значениями - нормально. Нередко из двух скореллированных столбцов делают один двумерный - бинят сразу пару совместно, если пара добавляет полезную информацию.
Откуда такая формула для среднего? А если чисел будет 3? Вопрос, кончено, уровня ленивого и глупого школьника. Но и ответ какой-то цирк с конями. Если в гугле забанен, то любой другой поисковик легко найдет и расскажет, как посчитать среднее значение любого количества чисел.
У него же встройка, гугли "Intel Core i3-1125G4 fps" или "Intel UHD Graphics Xe G4 48EUs (Gen. 11 Ice Lake) fps". Гугл и ютуб хранят огромноую кучу всяких тестов. Это я по названию ноута погуглил его точные характеристики. Вроде обещают сотку фпс в доте на лоу 720р. Хотя его 8 ГБ оперативки - это мало на сегодняшний день и запросто приведет к фризам и лагам при вроде бы нормальном фпс. Надо 16 ГБ. И встройка у амд обычно существенно лучше.
Именно с Ведьмаком 3 у меня проблемы после каждого крупного обновления винды. Я их решаю чистой переустановкой дров на видеокарту, всегда ставлю последнюю стабильную версию. Хотя у меня сейчас нвидиа. На амд вега64 с играми никогда проблем не было.
Qafqa, лучшие ИБП - с двойным преобразованием, а самые распространенные идоступные - это те котороые попроще - линейно-интерактивные. Такие попроще у меня всегда были и дома, и в офисе. Просто включаешь и они работают. Главное при отключении света, вырубать всю нагрузку, а если свет не возвращется, то и выключать комп, потому что быстрый и полный разряд батареи - это верный способ ее убить, ну, и просто комп вырубится при исчерпании заряда.
В основе pandas - numpy, который написан на Си и Фортране, использует эффективные структуры данных, алгоритмы и возможности железа, в частности векторизацию вычислений (scalar processor vs vector processor, avx instructions).
А как они между собой соединены? Через коннекторы или просто скручены? Такое бывает в навороченных корпусах, где потом скорость вращения задается кнопками/ручками на корпусе, типа реобас такой в корпус встроен.
Что за пример такой нужен, если есть доступ в гугл? Рукописный или что-то реальное? Если матан и логика, то Гудфеллоу - Глубокое обучение. Если практика, то тензорфлоу написан на плюсах. Для него создано огромное количество гайдов и справочных материалов по установке, настройке, использованию и т.д. Если даже это не по силам, тогда пайтон и керас - упрощенный интерфейс для всего, что есть в тензорфлоу.
Самый продвинутый в питоне способ управлять доступом к атрибутам - это дескрипторы. Именно через дескрипторы реализованы проперти. Альтернатива - вместо атрибута-списка использовать другой контейнер для хранения данных - кастомный или наследованный от списка.
Звучит как стандартные симптомы утечки памяти. В данном случае, видимо, утекают компоненты графического интерфейса и забивают буфер/кэш/список хэндлеров. Проблема скорее всего в каком-то компоненте ОС или какой-то кривой программе, при этом программа должна быть непрерывно работающая. Пробуй гуглить "gui lagging after uptime" с указанием операционки, если на английском.