Всё это кушает очень много ОЗУ и ресурсов диска (SSD), что на рабочем ПК довольно проблемно (32 ГБ, постоянно занята на 100% и образуется огромный файл подкачки), процессор обычно сильно не нагружен (i9-10900 нагружается максимум на 15%).
С большой вероятностью новый сервер который стоит миллион денег также скушает все ваше ОЗУ.
Потому что нет оснований не скушать. Лимиты на использование в ОЗУ зашиваются в программное обеспечение.
Следовательно даже на 32 и на 16 Г вашу задачу можно решать.
Если она нерешаема - то интересно почему. Что за алгоритм? Может язык и виртуальная машина неоптимальны? Python например. Тот никогда не хвастался экономией памяти.