У нас вечная боль с кешем. Пока мы не научились его скидывать частично, приходится скидывать кеш всего сайта. Это приводит к задержкам при открытии страниц у пользователей + многие страницы впервые посещают не юзера, а гугл, а демонстрировать задержку гуглу не к чему.
Соответственно, стоит задача разогреть кеш всего сайта.
В моих руках есть только сайтмэп и php :) Конечно, можно взять список всех урлов и форичем пройтись по нему делая file_get_content, но кажется, что для 10к страниц это займет слишком много времени. Есть идеи как сделать это лучше?
чтоб советовать конкретно надо знать как кешируется.
как вариант: при внесении изменений на страницу сразу же запрашивать ее через file_get_content/curl/etc.
Петр: повторю ответ: ресетить весь кеш - это бред.
ну коль этого менять вы не хотите, то мультикурл вам в помощь (если обходиться только средствами php).
Формировать кеш по крону либо с одним php через register_shutdown_function. Так же, было бы хорошо иметь функционал кеширования, который можно вызвать из любого места. К примеру $cache->article('12345'); после чего страница с id 12345 залетала бы в кеш.
Но если такого функционала нет, то остается лишь костыль с перебором url через веб-сервер. Я хоть и считаю "погонялки служебного трафика через веб-сервер" диким костылем, но от части понимаю что программистам так проще.
Продолжаю тему костылей, ни кто не ограничивает перебор url одним потоком. Хоть 10к сразу - выдержал бы сервер.