Здравствуйте! Помогите пожалуйста решить проблему. У меня есть сайт на Wordpress с добавленным плагином Woocommerce. До недавнего времени все было хорошо, а в последнее время вижу что в индекс начали попадать странички добавленные в корзину. Может быть есть возможность как-то закрыть это в Robots.txt?
Ссылки выглядят следующим образом: Сайт/product/podstavka-dlya-nozha?add-to-cart=3375, Сайт/product/bokserskieperchatki?add-to-cart=468
Помогите пожалуйста решить проблему, а то за месяц +600 таких страничек появилось в индексе, странно, я вроде ничего не делал, новые плагины не ставил.
выкинь этот мусор! Читай документацию к робоотсу, а не говнобложики.
Запомни - там должно быть ТОЛЬКО то, что может индексироваться, но не должно.
Ты же тут закрыл не только не индексируемое в принципе, но и то что должно быть проиндексировано.
Ну я так понял, человек добавляет товар в корзину и гугл по какой-то причине начал считать, как бут-то бы это новая страничка появилась.
Я не понял кто что понял, но я не получил ответа на заданный вопрос.
Refguser,
Я честно говоря не могу смоделировать, как это вообще получается. Как бут-то бы человек добавляет несколько товаров в корзину и гугл индексирует это... Пытаюсь вручную смоделировать это - не получается. Просто вижу в гугл консоле много таких странных ссылок в содержании которых упоминается cart и номер заказа
А если гугл и дашь ше будет наваливать новые ссылки, это не страшно?
Если в выдаче нет ненужного и нет каких-либо предупреждений - всё нормально.
Но можно добавить в роботс запрет на индексацию таких ссылок. Но прежде - почистить роботс от мусора.
Можно его вовсе удалить, посмотреть как его сгенерирует ВП, скопировать и создать с этим содержимым. Потом уже добавлять что нужно (а не тот вредный хлам что пишут в интернетах)
Refguser, Спасибо за помощь! А как запретить индексировать такие странички? Каждую вручную? Или может есть какое-то правило которое закроет их все? например: */product/
Как, собственно, и ответ - не может быть для всех одинаковых роботсотв. Роботс должен составляться для каждого сайта в зависимости от требований/задач.
И да, в тех "правильных" (неправильных на самом деле) роботсов нет решения проблемы ТСа.