@mat0thew потом отпишитесь о результатах, интересно ж. У меня из таких извращений был только парсер апстора (чего только не придумают), там тоже был модуль мониторинга статуса проксей, но список был меньше... всего несколько сотен. Нужно было собирать статистику по приложениям, почему-то кастомер хотел именно парсер... до сих пор не знаю почему.
@mat0thew не вижу смысла для вашей задачи использовать потоки. У вас эффективно будут работать только пара потоков (по сути столько сколько ядер доступно) и будет создаваться огромный оверхэд на перекюлчение контекстов.
Имеет смысл использовать сокеты + stream_select + разбить это на пару потоков (можно на 4) и распределять пулы по ним. Так можно добиться максимальной производительности.
@mat0thew чекер на go, интерфейс на php, между ними геармен или очередь сообщений обычная на rabbitmq/zeromq. В любом случае я бы делал схему именно такой, тогда не важно на чем написан чекер. Геармен тут был бы лучше ибо можно таски по рассписанию ставить.
@HellFir-e вам нужно сделать это только один раз? тогда нормально и решение влоб. да и потом можно через where in объеденить скажем несколько строк в одну выборку а потом в случае попадаения определять куда именно попало. Так можно сократить уже до каких 5000 запросов.
@AMar4enko, при разработке в браузере concat не отрабатывает, ибо это лишняя головная боль и большой оверхэд. А еще есть less/sass который всеравно нужно пересобирать. Тут тоже сорсмэпы.
@AMar4enko я просто еще и гибриды пишу, и при сборке проекта конкат все же отрабатывает. Просто в бегав версии билда еще и сорсмэпы засовываю для удобной отладки.
@AMar4enko там много вариантов на самом деле. Мой - удобен мне, вам может не понравиться. Суть в том что вы можете комбинировать решения и выбрать свой подход для сборки.