В дополнение комментария Александра, хочу сказать, что Google не всегда следует предписанием robots.txt и может сканировать сайт и страницы не смотря на запреты в нем -
см. справку: "Проиндексировано, несмотря на блокировку в файле robots.txt. Страница была проиндексирована, несмотря на блокировку файлом robots.txt (Google всегда следует предписаниям этого файла, однако если на других сайтах есть ссылки на вашу страницу, то robots.txt не поможет). Этот статус установлен, так как мы не уверены, что вы хотите удалить страницу из результатов поиска. Если ваше намерение именно таково, файл robots.txt не является корректным способом избежать индексирования. Чтобы страница не индексировалась, необходимо использовать тег noindex или запретить анонимный доступ к ней. "
Поэтому помимо запрета в robots.txt советую установить на всех страницах поддоменов мета тег для роботов google
<meta name="googlebot" content="noindex, nofollow">