Наверное потому, что вы хотите скрыть некую информацию от поисковиков, но не от пользователей, нет? Если вам прям именно 404 для роботов нужна (непонятно зачем), то то же самое — смотрите user-agent и кидаете 404 для googlebot и прочих. В чем проблема то?
В robots никак. Это надо в коде делать. Вот только зачем вам 404 отдавать роботам? Что это даст? Вы решаете несуществующую проблему. Запретите роботам ходить куда не надо в robots.txt и дело с концом.
Вы видимо не понимаете что делает robots.txt (а он этим и занимается - запрещает ботам читать те или иные страницы). Так что советую вам внимательно почитать мои ответы и внимательно почитать про robots.txt.
Что вы подразумеваете под "читать"?))
Процитирую например документацию Яндекса:
"Чтобы запретить доступ робота к сайту или некоторым его разделам, используйте директиву Disallow."
Если вы роботу запретили ходить в www.collsite.ru/catalog, то он туда и не пойдет. И не будет этот раздел "читать".
вы святой или может вы считаете что люди делающие робота святые?!... вы никогда не делали то что вам запрещено?!...
С чего вы решили что роботам не интересно что у вас лежит в "чёрном ящике" и он как примерный мальчик будет слушаться ваших указаний?!...
Интересно что там может быть такое, что нельзя смотреть роботу, но можно смотреть любому человеку в интернете (раз вы беспокоитесь о поисковике, то значит файл, который вы хотите скрыть находится во всеобщем обозрении, и не скрыт за авторизацией)? Что помешает разработчику (человеку) поисковика скачать ваш секретный файл?))
Это немного странная форма паранойи.