Если нестабильный интернет, то как заставить браузер докачать страницу полностью?
На дворе 2018 год и космические корабли, как мы знаем, бороздят большой театр.
А браузеры до того тупые, что не могут докачать страницу при нестабильном интернете.
То вообще не грузят, то грузят html наполовину, то картинки недогрузят.
Что это за тупость такая?
Я помню 2000 год и программку FlashGet, которая на медленном нестабильном dialup, который мог разрываться каждую минуту, спокойно грузила мне мегабайтные файлы...
Сейчас же 2018 год и гугл сделала тупой браузер Chrome, в котором куча перделок и свистелок, а вот на 100% догрузить страницу он не может.
Не может, Карл!
Я хренею...
Какой браузер может? Может кто поскажет?
У меня сейчас нестабильный мобильный интернет и меня совершенно не волнует скорость загрузки страницы, мне просто нужно, чтобы она полностью прогрузилась, пусть даже через час.
Меня это устроит.
Но сейчас я постоянно нажимаю F5, меня это уже сводит с ума, что делать?
Есть решение?
Иван, а почему вы отвечаете вопросом на вопрос?
Ситуации разные бывают - места с плохим покрытием мобильной сети и отсутствием проводных провайдеров в принципе. В 2018 значок E вместо 3G или 4G равнозначно отсутствию интернета в принципе.
Это обычный браузер, который сжимает трафик через прокси сервер.
До прокси сервера тоже нужно достучаться, а если соединение прервётся, качать заново? Или этот браузер-прокси умеет докачивать?
Мне не нужно сжимать картинки, мне нужно полное качество. Картинки у меня и так отключены по умолчанию, как и js. Если мне нужны картинки, я готов подождать хоть час, пока они все подгрузятся, но мне нужна автоматика, как-будто это встроенный Offline Explorer в браузере.
А сами страницы обычно всегда уже сжаты, этот прокси ничего существеного уже не добавит.
То требование, что описано в вопросе - там нет. Я уже пробовал разные режимы сжимания трафика - разницы не заметил.
Eugene, кто мешает вам продолжать использовать оффлайн эксплорер или флешгет как и в 2000 году?
Для того чтобы работала докачка нужно чтобы и клиент и сервер ее поддерживали. content-range, вот это всё.
Хром этого (почти) не умеет, потому что в 2018 это (почти) никому нафиг не нужно, по крайней мере в режиме серфинга. Соответствующие таски у них в трекере висят уже не один год. С низким приоритетом.
Можно на своем сервере наколхозить самодельное решение, которое будет скачивать страничку со всеми ресурсами каким-нибудь wget'ом или curl'ом, запаковывать в один контейнер, и отдавать его на ваш клиент с докачкой. При этом некоторые сайты будут довольно сносно работать, но большинство этих вот ract-vue-ajax-push-super-puper-2018-way сайтов превратятся в тыкву, потому что написаны так, чтобы за каждым чихом лазить на сервер.
Ребята из оперы неплохо поработали над этой задачей, они там головастые. Лучше них вроде никто пока не смог.
Такие дела.