Как полностью убрать старый сайт из отчетов Google Search Console после замены сайта на том же домене?
Я полностью заменяю сайт на том же домене: удаляю старый контент и загружаю новый, с новой картой сайта и файлом robots.txt. При этом я не планирую настраивать редиректы и не умею работать с техническими настройками сервера.
Меня беспокоит, что в Google Search Console так и останутся висеть более 400 страниц со старого сайта в статусе ошибок индексации, и эти же страницы продолжат отображаться в поиске Google, приводя пользователей на несуществующие адреса.
Что именно нужно сделать в интерфейсе Google Search Console, чтобы старый контент максимально быстро исчез из отчетов и поиска, и не будет ли это мешать индексации нового сайта? Достаточно ли будет просто загрузить новую карту сайта, или есть специальный инструмент для очистки истории индекса?
Нужно выждать примерно сутки, чтобы робот гугла обошел новую карту сайта.
Важно, чтобы для старых url, которые уже не существуют, сайт уверенно отдавал 404 код и страницу, тогда несуществующие страницы будут убраны из поиска.
В консоли есть удаление конкретных страниц из поиска, но нужно помнить, что мгновенного эффекта не будет.
Сделал изменения, выждал сутки, проверил результат. Только так.
При этом я не планирую настраивать редиректы и не умею работать с техническими настройками сервера.
Ну, это не отговорка. Берете на себя SEO, значит, в курсе как работает роут на сайте и имеете доступ на его правку.
alexalexes, Refguser, спасибо за разъяснение!
На еще старом сайте эти 400+ страниц в отдельной таксономии "услуги" (все URL были вида /услуги/...). На новом сайте этой таксономии вообще не будет, все страницы физически удаляются. Чтобы Google быстрее убрал их из поиска, нужно настроить для всех этих старых адресов 410. Правильно?
Если да, то как это проще всего сделать? Подскажите конкретный алгоритм для чайника, чтобы все старые URL с /услуги/ отдавали 410. Просто насколько я знаю, если принудиително удалять страницы в ГСК, то это временно?
Чат gpt говорит добавить в корневой .htaccess такую строку:
RewriteEngine On
RewriteRule ^uslugi/.* - [G,L]
Я не очень разбираюсь в настройках сервера, поэтому хочу уточнить
Ты просил убрать из гуглоконсоли - тогда 410. Но будит ли это правильно для жизни сайта - большой вопрос (тов. Виктор Петров может быть прав и стоит сделать 301. А может и не стоит. Смотря что за сайты и какие цели существования нового)
Отказываясь от редиректов и переклейки старых URL на новые, вы неминуемо обрекаете свой сайт на то, что старые адреса зависнут в индексах Google по сути навсегда. Даже при корректной переклейке с помощью редиректов данные о старой структуре останутся в индексе, и гуглобот будет ходить по этим URL ещё годы – в любом случае.
SC сейчас в принципе в самой минимальной степени предназначена для того, чтобы вы как-то могли управлять процессами сканирования и индексирования. Сейчас это просто какие-то возможности мониторинга без возможности на что-то повлиять.
И да, отсутствие редиректов при таких манипуляциях с неновым хостом неизбежно приведёт к массе неожиданных ошибок и мелких проблем.
Я бы не рекомендовал так делать, это серьёзная ошибка с долгосрочными нехорошими перспективами.
Ror21e41, просто обычная история. Смотришь в логи - и видишь, как гуглобот ползает по давно убитым урлам спустя годы после правильно выполненной реструктуризации.
Индекс-то не один, их много. Тут матрица обратных, тут скачанные странички, тут данные по ссылкам, полезным сигналам, там - список шинглов, которые Гугл счёл хорошими. И вот структура убивается, а эти обломки по разным индексам остаются.
Гуглоиды официально признавали, что 301 редиректы окончательно переклеиваются за срок чуть не в полтора года. Это, конечно, в большей мере доменов касалось, но очень уж похоже на правду и относительно страниц. А ресурсов на обходы они выделяют с каждым годом всё меньше - и незачем тратить эти их бюджеты на обход давно мёртвых адресов, не говоря уже про риски разных глюков.
сформировать и отправить на индексацию актуальный sitemap.xml
убедиться что старые страницы реально недоступны и/или закрыты от индексации через robots.txt / теги noindex,nofollow,nosnippet
Доступ к данному URL-адресу для сканирования заблокирован файлом robots.txt.
Представитель Google Мюллер ответил:
«Вы можете использовать инструмент удаления URL-адресов в Search Console для отдельных URL-адресов (даже если все URL-адреса начинаются с одного и того же). Я бы использовал его для тех, которые особенно заметны (проверьте отчет о производительности за 24 часа)».
Это не удаляет их из индекса, но скрывает в течение дня. Если страницы сейчас недействительны / выдают ошибку 404, они также исчезнут со временем, но инструмент удаления позволяет скрыть их «немедленно». (Перенаправление на страницу 404 допустимо, технически 404 — это правильный код ответа).
Мюллер уточнил, что инструмент удаления URL-адресов не удаляет URL-адреса из индекса Google, а скрывает их из результатов поиска быстрее, чем это произошло бы при естественном повторном сканировании. Его объяснение напоминает, что инструмент оказывает временное влияние на видимость в поиске и не является способом окончательного удаления URL-адреса из индекса Google. Фактическое удаление из поискового индекса происходит после того, как Google подтвердит, что страница действительно удалена или заблокирована для сканирования или индексирования.