Можно закрыть страницу в meta robots, если она закрыта в robots.txt?
Всем день добрый. У меня есть сайт, на котором точечно нужно закрыть страницы от индексации с атрибутом site.com/ru. В файле роботс указан этот тег "ru", но не все страницы выпали из индекса, дабы ускорить процесс, можно точечно на страницах прописать meta robots. Собственно, вопрос: возможен ли такой вариант? Слышал, что если прописать теги и там и там, то робот не будет воспринимать никаких действий.