Как правильно заполняется robots.txt?
Ранее читал, что логика должна быть такой
Сначала мы пишем что нельзя ботом сканировать, а потом разрешаем все что можно
User-agent: *
Disallow: /cabinet/
Disallow: /cabinet/register/
Disallow: /cabinet/forget/
Disallow: /search/
Allow: /
User-agent: Yandex
Disallow: /cabinet/
Disallow: /cabinet/register/
Disallow: /cabinet/forget/
Disallow: /search/
Allow: /
Host: site.com
Sitemap: https://site.com /sitemap.xml
Правильно ли у меня вышло или нет? Почему задаю этот вопрос, потому что вижу что у других сайтов есть только
Disallow:
Disallow:
Disallow:
и в конце нет Allow: /
Разъясните пожалуйста