robots.txt - это про сканирование и возможность скачивать. Это не запрет на индексацию, и Гугл может всё равно индексировать страницу, если получит достаточный объём сигналов делать так. Ссылки, визиты пользователей - что угодно.
Он не видит вашей рекомендации не индексировать, поскольку не может скачать и просканировать проблемные URL.
Убирайте Disallow в robotx.txt, решайте вопрос метатегами.