Имеется список URL, которые я обхожу через simplexml_load_url, один за одним.
Количество URL может быть в районе 300-500. С каждого URL достаются данные в формате XML, парсятся и результат заносится в БД.
Как можно:
1. Оптимизировать время. Для обхода 20 URL потребовалось в районе 50 секунд
2. Сделать так чтобы одновременно начался обход всех урлов, и после того как все урлы будут распарсены, уловить этот момент, для того чтобы записать в бд "время обновления всего".
Подскажите, пожалуйста, что для этого можно использовать?) Если играет роль то использую Laravel, и запускаю скрипт обхода через cron
А почему не использовать ларавель, и почему никто не говорит про Guzzle, у которого есть этот функционал вроде как? (Щас нагуглил guzzle concurrent requests)