В одном контейнере, конечно же, это настраивать не нужно. А вот сделать docker-compose с 3 сервисами - nginx, php-fpm, mysql, вполне реально. Берёте нужные образы, настраиваете связку, пишете скрипты для заполнения БД и отдачи строчек.
Если я вижу где-то большое количество dst-портов, это с высокой вероятностью кривота. Что будете делать, когда для разных приложений захочется по-разному обрабатывать запросы?
Я правильно понимаю, что вы на каждый запрос поднимаете новый контейнер с инициализацией кластера? Напрасно.
Я бы смотрел в сторону "один пользователь (или даже запрос) - одна БД внутри постоянно работающей толстой СУБД". Ну и БД периодически ротировал с очисткой.
Гигабит на обоих концах не означает, что между точками тоже будет гигабит, тем более с инкапсуляцией - гуглите "зависимость пропускной способности от RTT".
Iperf между Москвой и хостингом гигабит выдаёт? В сколько потоков?
Если вы внимательно посмотрите на окончания, то поймёте, что они поддаются описанию довольно простым повторяющимся паттерном (особенно начиная со второго десятка).
Судя по описанию, вам просто нужен отдельный браузер/профиль, в котором настроен прокси в виде локального IP-адреса (на случай, если домен прокси при наличии интернета резолвится во что-то неработоспособное). Тогда и при подключенном вайфае браузер будет ходить через него.
Вы безусловно можете выставить свой DNS-сервер в интернет - и любая зона, обрабатываемая им, станет доступна снаружи. Нюанс в том, чтобы клиенты приходили за информацией именно к вашему серверу, а не к тому, который прописан у соответствующего домена в NS-записях.
Делать полную копию в данном случае контрпродуктивно - надо переносить отдельные сервисы и данные. У вас EOL-версия, на неё не выходят обновления и тащить её в новое место незачем.