отключение логов поменял на такое,без разницы. насчет proxy_buffering, по описанию - это размер буфера для отдачи сервером(apache) nginx-у ответа, затык может быть,если считывать много данных через php (readfile)?и по сути запись файлов на винт в приемной части (см. описание выше) тут не причем?
Константин: если сервер не ваш,то максимум,что получится это плодить коннекты. но это не есть хорошо. Что бы подобное организовать по нормальному нужно: какой-то websocket сервер, который каждый запрос будет ставить в очередь на выполнение, тем самым возможно будет хоть 10000 отправлять запросов, все будут выполнены асинхронно.
Евгений Николаев: там везде установка общего кол-во тредов на весь сервер, а не отдельно на сервлет и один вменяемый ответ,что нельзя такое сделать: It's not possible per the servlet specification. However in Tomcat you can define several connectors running on different ports. Each connector has a separate thread pool.
как показывает практика, последние драйвера не всегда нормальные, Driver Pack Solution - не панацея. я бы попробовал другую сборку,обязательно 64 разрядную и без установки драйверов
tsarevfs: можно сделать очередь запросов с асинхронным выполнением, всегда будет фиксированное кол-во объектов, например 5. и дестроить всю очередь и канцелять все текущие запросы в нужно месте. с таким подходом,ты не забьешь канал и не будет утечки памяти.
dovzhikovk: плохо искали, температура CPU там 100% есть. Прочитать кусок памяти,как написал товарищ ниже,можно через JNI, под каждую ось написав свой бинарник и дёргать его из явы.