Данная предосторожность чуть менее чем бесполезна.
Объясню почему:
1) Страницы, которые мы посещаем могут сливаться поисковикам нашими же браузерами.
2) Для того чтобы поисковики не индексировали желаемую страницу достаточно запретить в robots.txt доступ к директории, где она находится либо использовать noindex в самой странице.
<meta name="robots" content="noindex"/>
3) Подбор паролей работает если известен логин, а если логин не тривиальный, то и подбирать нечего.
4) Для защиты сайта большее внимание стоит уделять к тому, чтобы авторизационные данные шли через https, пароли хранились в хешированном с солью состоянии и отсутствовали возможности sql и xss иньекций.