Голый nginx бесполезно тестировать - производительность, если у вас, конечно, не сайт на чистом HTML, упрётся в генерацию динамического контента: PHP, базу данных, вот это всё.
Лень исследовать, чисто пальцем в небо - может PMA каждый раз подсовывает в js-файле что-то новое, айдишники какие-нибудь меняет и не пускает со старыми?
Берёте в интернетах список IP-адресов гугла, добавляете для них deny-правила в локейшен. Спустя неделю обнаруживаете, что список не полон, повторяете первый пункт.
Но вообще вангую, что вы не с той стороны подошли к решению задачи.
Важно понимать - зачем выжимать. 30, 50 и даже 200 мсек для загрузки страницы в браузере малоразличимы (а точнее - разброс от потери пакетов и RTT интернета клиента вносит значительно больший вклад).
Если у вас при расчётной нагрузке во время нагрузочного тестирования время отклика для подавляющего большинства запросов сохраняются комфортным для пользователя - поздравляю, у вас всё хорошо. Если нет - тут-то и обнаружится поле для оптимизаций.
Берёте любой HTTP-сервер и настраиваете аналогично стандартному порту, указав соответствующий сокет для проксирования, если ваше ПО самостоятельно этого не умеет.
До определённого размера и нагруженности базы лучше использовать в рамках одной СУБД - оверхед будет меньше, а памяти можно выдать в три раза больше, они это любят.