как новичку я настоятельно рекомендую не использовать selenium, для начала все можно сделать просто открыв консоль разработчика браузера на нужной странице по f12, и там в консоли можно написать javascript
Пример скрипта, получающего текст вопроса qna.habr.com $('.question__body').text()
получение результата отдельный разговор, я скриптами делаю запросы http get или post, отправляющие собранные данные на мой сервер (могут возникнуть проблемы с CORS и запретом смешивать http/https, все решаемо), как вариант можно генерировать тут же в браузере документ и давать его на загрузку, это вообще ничего особого не потребует
Пример кода, открывающий страницу с сгенерированными данными формата csv (в новом окне, обычно все запрещают новые окна открывать, но там сверу предложено будет открыть)
p.s. я писал про симуляцию поведения пользователей, если тебе нужно одновременно симулировать поведение сразу большого их количества, задачи разные стоят, часто этим пользуются спамеры, или обход лимитов сайта на быструю загрузку данных одним пользователем и т.п., так вот чтобы такое делать с помощью selenium и аналоги, потребует на каждого симулируемого пользователя (особенно если надо разные прокси) запускать отдельный браузер, каждый из которых сожрет оперативку и займет процессор, десяток другой и не слабая машина уже нагружена.
Ну вот, основная нагрузка получается из-за групировке по таблице accounts_audit - full table scan, кстати добавь индексы по одновременно двум полям, указываемых в group by, и само собой по полям, указываемым во where
Если индексы будут использоваться но все же будет медленно либо к примеру индексы будут замедлять запись то используй партицирование как я предложил.
Хотя, если в фильтрации у тебя используется плавающая дата (2022-05-20 00:00:00), то предлагаемый мной метод не очень подойдет (точнее подойдет но кодить придется заметно), грубо говоря ты создаешь таблицу accounts_audit_grp, куда складываешь (однократным скриптом по окончанию периода) все 'старые данные' сразу с агрегацией min но в пределах этого интервала, раз в например сутки (если твоя дата фильтрации меняется как раз с шагом в сутки) тогда min будет вычисляться точно таким же запросом, и самое главное, эти старые данные удаляй из изначальной таблицы accounts_audit (ну в архив без индексов перемещай)
данные по текущему интервалу досчитывай по основной таблице
т.е. у тебя будет таблица accounts_audit_grp с полями parent_id,field_name,max_date_created,min__date_created,grp_date где min и max значения в пределах grp_date и grp_date+размер интервала
попробуй все же вспомнить, что менял или делал между 'не глючило' и 'начались фризы'
операционная система установлена на ssd диск? игры тоже?
графики ничего плохого не показывают
можешь записать звук (сторонними средствами, например смартфоном, поставь фоном запись а потом вырежи нужный момент любой программой редактирования звука), когда происходит
не бывает спутникового wifi, бывает роутер который получает интернет через спутник, но сам wifi у него локальный земной, а значит подключившиеся к нему между собой имеют быструю связь (медленнее чем по проводам но десяток миллисекунд пинг)
можно, но я считаю не нужно
база данных, типовая, на среднем железе, способна обрабатывать сотни запросов в секунду, при должном тюнинге - тысячи
у тебя будет больше?
у тебя немного неверное представление инвалидации данных... кеш это предположение что данные не изменились, гадать типа - ну 30 минут данные не будут меняться странно, а если изменятся? а ты считаешь что не изменились?
виртуалки это гибкость расширения и управления, нельзя складывать все софт, хранение и управление в одном месте так как даже при простом обслуживании одного, можно задеть все остальное (банальная перезагрузка)
плюс админ из будущего тебе огромное спасибо скажет, виртуалку можно запустить практически на любом железе, когда как перенос уже работающего может не пройти банально по причине отсутствия поддержки, сколько на этом копий сломано жуть
2 сервак это резервирование, но главное гипервизоры виртуальных машин позволят выбирать (причем даже без остановки работы) как использовать мощности второго, как резерв или как распределение нагрузки
Наличие готовой и настроенной машины уменьшает время простоя и срок восстановления после сбоя с суток (а в условиях санкций - недель) до минут
Как именно в виртуальной машине подключено сетевое устройство?
Еще, про ip адрес, либо в обоих сетях должно быть устройство с функцией DHCP либо нужно задать ip адрес вручную для каждого подключения.
p.s. существует ничтожная вероятность что в программе будет какой-нибудь баг, с переполнением например и злоумышленник подсунет тебе такой clipboard что приложение приняв его выполнит злонамеренный код, .. т.е. если говорить в таком ключе, то ЛЮБЫЕ данные от злоумышленника нужно подвергать как минимум сомнению
очень хорошо подумай, иностранные компании, в частности эпл, самоизолировались от россии, отказываясь с нами работать по национальному признаку (буквально - русский, работать не будем, сами понимаете почему), и как местное представительство сможет тебе отремонтировать оборудование, если запчасти им не поставляют?
так как адаптер отключается из-за перепада напряжения например
что?
перепад напряжения где? если проблема с электропитанием, тут не только ОС в синий экран упадет, тут блокпитания, материнку и переферию можно пожечь
Пример скрипта, получающего текст вопроса qna.habr.com
$('.question__body').text()
получение результата отдельный разговор, я скриптами делаю запросы http get или post, отправляющие собранные данные на мой сервер (могут возникнуть проблемы с CORS и запретом смешивать http/https, все решаемо), как вариант можно генерировать тут же в браузере документ и давать его на загрузку, это вообще ничего особого не потребует
Пример кода, открывающий страницу с сгенерированными данными формата csv (в новом окне, обычно все запрещают новые окна открывать, но там сверу предложено будет открыть)
p.s. я писал про симуляцию поведения пользователей, если тебе нужно одновременно симулировать поведение сразу большого их количества, задачи разные стоят, часто этим пользуются спамеры, или обход лимитов сайта на быструю загрузку данных одним пользователем и т.п., так вот чтобы такое делать с помощью selenium и аналоги, потребует на каждого симулируемого пользователя (особенно если надо разные прокси) запускать отдельный браузер, каждый из которых сожрет оперативку и займет процессор, десяток другой и не слабая машина уже нагружена.