Какие именно сложности?
У меня был случай, давным давно, интернет в одной бюджетной организации работал отвратительно, нестабильная скорость, разрывы связи,.. какой то сайт работал очень и очень медленно и вылезали ошибки (а повторное обновление по F5 в браузере почему то повторно пробовало загрузить картинки, то ли сайт кривой то ли браузеры тогда по F5 принудительно игнорировали настройки кеширования).
Что сделал я - сначала попробовал узнать датацентр, на котором хостился сайт, прописав его ip адрес (не доменное имя) в гугл и подсмотрев название организации, конкретно в том случае это не подошло но узнав страну, я выбрал датацентр, находящийся там же, арендовал там vps-ку c linux, настроил там x2go сервер (точнее тогда как я помню еще nomachine) и запускал браузер на этой удаленной машине, управляя им удаленно по сети. Тогда это стоило мне тройки десятков баксов (сейчас однозначно можно и дешевле),но дало практические знания по использованию vps-ок и решило проблему.
Этот способ работал невероятно стабильно, так как с точки зрения браузера сайт находился буквально рядом, а проблемы с интернетом просто понижали уровень комфорта интерфейса (были лаги).
Кстати этот способ дает интересный эффект с современными тяжелыми сайтами, он может заметно уменьшить объем сетевого трафика на машине, если не заходить на сайты мультимедиа и картинками, так как удаленный рабочий стол очень эффективно упаковывает содержимое экрана в сетевом трафике, гораздо эффективнее чем это делают криворукие разработчики, генерируя многомегабайтовые html страницы (x2go кеширует изображения, передавая их только один раз но не всегда это получается сделать именно для браузера, если изображение исчезает с экрана и потом снова появляется, например при скролинге, оно будет повторно передано)