Представьте следующий кейс - есть добросовестный ресурс, на котором вполне добропорядочный автор размещает ссылку на 'хорошую' страницу. После размещения данные по указанной ссылке поменялись и в лучшем случае содержат не ту информацию на которую изначально ссылались, а в худшем к вредоносному коду. Заметьте - ссылка рассположена на сайте, которому доверяют и пользователи без задней мысли переходят по ней.
Один из вариантов решения проблемы валидности ссылок может быть возложен на добропорядочный сайт, разработчик которого напишет скрипт, шерстящий ссылки на предмет чего то там.
Но по моему мнению проверка валидности ссылок должна стать частью веб стандарта. Самое простое - вшить в url уникальный хеш страницы, который при переходе будет сверяться с текущим хешем и ругатся если они не совпадают.
При легальном измении хеша страница должна оповещать все что на нее ссылается и ссылки должны пересчитывается либо удалятся ( если например меняется тематика или информация удаляется)
У этой идеи есть ряд недостатков, которые связаны с динамичностью веба, но данный метод подойдет, к примеру, для ссылок на статьи либо для валидации исходного кода страницы
Есть идеи и соображения по этому поводу?
вот этот момент проясните, пожалуйста. что есть легально, а что — нет?
Написано
Валентин
@vvpoloskin Куратор тега Компьютерные сети
Самое простое - вшить в url уникальный хеш страницы,
И как же этот хэш будет обновляться в случае изменения контента на странице (пользовательские комментарии, новый рекламный блок, изменение разметки-верстки)?
Валентин, вот здесь нужно понимать что считать. Для статического контента можно посчитать только заголовки, теги и автора. Для динамического собрать весь js контент.
Любая страница с динамическим контентом, обновлением контента, новостями, счётчиками, баннерами и рекламой не пройдёт вашу валидацию.
Стандартное поведение - предупреждать о "просроченной" ссылке или ссылке на внешний сайт.