Да именно так, единое приложение, управляющее браузерами.
Народ делает на основе silenium я делал на основе обычного плагина greasemonkey/thempermonkey который инжектит мой javascript на страницу, а этот код уже в свою очередь запрашивает управление по http rest/websocket с моего управляющего сервера (если у вас https страница то лучше запускайте этот управляющий центр тоже на https).
у вас только один вариант - запускать на каждый прокси свой экземпляр браузера, и уже из него работать
upd. так же можете распотрошить расширение к браузеру, меняющее прокси сервер (для фаерфокса такие есть) и менять его на лету, таким образом уменьшив количество браузеров, все равно одновременно вы не будете использовать ВСЕ прокси
не понимаю ЗАЧЕМ парсить из браузера?
Не так, почему запрос через прокси сервер вы хотите делать на javascript из браузера?
нормально эту задачу решают двумя способами - разбирают протоколы нужного сайта и повторяют запросы с помощью curl (или библиотек на его основе), либо запускают безголовый браузер (несколько, для каждой прокси свой) и управляя им с помощью внешнего приложения симулируют поведение пользователя (этот способ проще по разработке, сложнее противодействовать владельцу веб сайта но требует значительно больше ресурсов на машине-парсере).
я такой писал в универе в качестве курсовой :) даже уже и не вспомню для какого языка
На вскидку bat в windows кажется интерпретируемый текстово, построчно в процессе выполнения (даже читает файл, запоминая позицию в файле, т.е. при его изменении (вставка выше исполненных строк) читает порушенную строку со сдвигом.
Muranx, если нет ввода данных то тогда не нужно беспокоиться и бакенд не нужен, автообновление страницы это штатная команда в html. Т.е. вы можете обойтись тупо статикой
Чтобы проверить что косяк у вас а не на сервере погоды, нужно настроить прокси - это настройки не компа а браузера (правда есть настройки и на компе) прокси не ставят а берут готовый ну или vpn в общем дерзайте
Что пишет curl -v ... ? да тупо в браузере?
Там точно надо POST делать а не GET?
http не https!
Проверьте что ваш провайдер не вставляет рекламу вам в запрос (в россии это уже норма, поломали весь интернет что без шифрования а шапочки из фольги нормально не работает нифига)
любой hdmi сможете, но под вопросом будут разрешение, если монитор не поддерживает то что ожидает bios то будет нежданчик, но обычно скалить все могут.
сам не занимался этим но говорят проблем с этим мало
Независимые это значит совпадение идентификаторов одной и той же транзакции в разных сервисах не помешает их работе.
Или к примеру сторонний сервис хочет сам создавать идентификаторы, у него например шардинг так настроен, в остатке от деления идентификатора на N скрыт номер узла, в котором идет обработка (где N - количество нод), а тут вы со своим идентификатором так не специально направите нагрузку не туда (например там 2 узла, четные идентификаторы на A нечетные на B, ваш сервис к примеру на определенный паттерн поведения создает парами транзакции, первую направляет в один сервис вторые надругой, вот наш сервис и получает только четные и плачет)
p.s. последнее что вас должно волновать - размер базы, так как стоимость места на порядок дешевле стоимости процессорного времени... лучше больше хранить но быстрее ехать
p.p.s. почему именно UUID? лично мне они не очень нравятся, дорогие по обработке, и единственный бонус - гарантированно уникальные без необходимости создавать единый сервис генерации этих идентификаторов, что актуально когда у вас шардинг на 100500 нод.
ох, да проблемка.
у xen кажется есть свои механизмы снапшотов, может посмотрите. можно ли бакапить дифы между ними? точно помню например у kvm были какие то механизмы по получению патча чуть ли не оперативной памяти машины чтобы перенести на соседних хост, может и с данными что то есть.
зы 2гб это не много, это норма для браузеров, много это 20гб