S_dryg,
1) В robots.txt разделите тогда, закройте для яндекса, а для google откройте. Робот должен попасть на эти страницы, чтобы исключить их. Сейчас если у вас для всех роботов закрыто в robots.txt то Google не сможет попасть по этим ссылкам и исключить их.
2) На некоторых проектах замечал, что новая Google Search Console не корректно может отображать x robots tag и писать что индексируется.
3) Удалите все эти ссылки через Google Search Console инструмент Удаление.
Но все таки, вам эффективнее использовать rel="canonical", если это ссылка на скачивание и на них есть переходы Потому что закрывая x robots tag вы полностью обрубаете поведенческие по этим ссылкам, а rel="canonical" позволяет роботам ходить по этим ссылкам, но просто они будут их считать каноническими другой странице откуда идет скачивание.
1) В robots.txt разделите тогда, закройте для яндекса, а для google откройте. Робот должен попасть на эти страницы, чтобы исключить их. Сейчас если у вас для всех роботов закрыто в robots.txt то Google не сможет попасть по этим ссылкам и исключить их.
2) На некоторых проектах замечал, что новая Google Search Console не корректно может отображать x robots tag и писать что индексируется.
3) Удалите все эти ссылки через Google Search Console инструмент Удаление.