Доброго времени суток. Есть свой кривой парсер под конкретные задачи, используется curl_multi и скармливается ему список url пачкой.
удаленная сторона иногда подтормаживает и приходится ждать завершения для всей пачки
вижу костыльную реализацию с worker'ами - каждый url отдавать стороннему скрипту и ждать пока тот ответит, но не знаю насколько это правильно и как контролировать выполнение. может есть готовые примеры?
то есть имея три url
при долгом ответе от, скажем, первой и при выполненых 2 и 3, начинать обращение к 4 и 5, а после того как ответит первая - начать забирать шестую.
простите за сумбур, короче ищу готовый класс или вменяемое описание как написать многопоточность с очередью
спасибо