Доброго дня, всем.
Столкнулся с проблемой (раньше всё работало нормально)...
При проверке из консоли вебмастер-гугла страницы, пишет, что
все внешние линки, включая баннеры и счётчики, заблокированы файлом robots.txt!
Баннеры - просто никак не показываются...
(Host: был указан до этого и сейчас указан...)
Разве robots.txt работает на внешние ресурсы (что-то не помню такого)?!
Кто сталкивался уже с подобным?
Что это за бага и как бороться?
(причина проста: много "левых" урлов, которые не нужно открывать из Disallow)
UPD: Код из robots.txt:
User-agent: *
Host: https://domain.com
Disallow: /cache/
Disallow: /cli/
Disallow: /*.ttf
Disallow: /*.svg
Disallow: /*.pdf
Disallow: /*.txt
Disallow: /*.doc
Disallow: /*.css
Disallow: /*.js
Disallow: *?ax=boost&print=1
Disallow: */?
Disallow: *?*format=
Disallow: *?*=rss
Disallow: */index/
Disallow: */index.html$
Allow: */pagead/*
Allow: /
Allow: */pagead/* и Allow: /
добавил недавно...