Если еще не попали в кэш, поможет правильно настроенный robots.txt (уже писали), например, вот так:
User-agent: *
Disallow: /
если же один из ваших сайтов, несмотря на все меры предосторожности, угодил в кэш, то вот тут (http://www.google.com/webmasters/), после простой процедуры авторизации домена, можно отправить гуглу запрос об удалении конкретной страницы или пула страниц из кэша. Перед этим-таки настроив robots.txt. Недавно собственноручно вырезал из гугла десяток сайтов.
Это если в общем. Касательно хабра — черт их знает. Может быть сознательно открыли, для повышения в выдаче.