Виктор Таран, Мне вообще надо увеличить время, до 3х минут, а 5 поставил чтобы проверить будет ли выскакивать таймаут. Как бы я ни менял ничего не происходит, таймаут такой же как и был.
Виктор Таран, да я про ошибку в качестве примера сказал, что сам location отрабатывает. Цель в том что мне нужно для апи сделать определенный таймаут, а для всего остального другой таймаут. Попробую прокси пасс.
Спасибо, но просто за несколько лет там будет уже более миллиарда строк, а это уже даже mysql будет сложновато, но это несколько мне известно. Выборка истории для user_id, может происходить за весь период. Вот тут весь вопрос - запрос элементарный, но какие объемы выдержит не ясно, хотя если до миллиарда выдержит, то нормально - но потом надо будет масштабировать
Bavashi, как таковых вычислений там нет. Получается значение из кэша, актуальное именно на данную секунду и передается уже задаче которая хоть год будет обрабатывать.
Да, в целом тут есть направление куда смотреть. ReactPHP в данном случае тоже не панацея, да работаю с ним параллельно в проекте. Кастомный крон тоже не подойдет, т.к. он всё равно не асинхронен, в идеале надо запустить ровно через 5 секунд, Например было запущено в 5 секунд 250 миллисекунд и завершить в 10 секунд 250 миллисекунд. И тут всё упирается именно в объемы данных. Нельзя запустить сразу миллион обработчиков очередей, так как просто столкнемся с не программными ограничениями.
Думаю для начала, конечно хватит, воркеров, но далее надо будет думать каким образом обрабатывать.