Почему робот видит несуществующиее страницы с ?page=13?
Здесь есть похожий вопрос, но у меня ситуация другая. страниц с типа /blog/texnologiya-karkas.html?page=13никогда не было, т.е. т.к. пагинация я появляется после 80 результатов, их там меньше и во вторых реальный адрес был бы другой:
/blog?page=13
С чему это может быть связанно и как запретить яндексу(у гугла вроде такой проблемы нет) игнорировать всё запросы содержащие зак "?" ?
_______________________________________________
- сайт разрабатывал не я и это пошло из-за таких ссылок, т.е. понятно почему робот думал что страницы существуют.
Как вы думаете зачем предыдущий разработчик добавлял эти ссылки в head, при том что в начале сайт очень хорошо работал по сео, а теперь вышеописанная проблема?