@gsdgdfgf

Как сделать правильный robots.txt для новостного сайта?

Здравствуйте! запускаю новостной сайт, делаю robots, как правильно сделать его для новостного сайта? пока что настроил вот так:

User-agent: *
Allow: /wp-admin/admin-ajax.php
Allow: /*/uploads/
Disallow: /wp-admin/
Disallow: /cgi-bin/
Disallow: /?/
Disallow: /wp-/
Disallow: /wp/
Disallow: /*?s=/
Disallow: /*&s=/
Disallow: /search/
Disallow: /author/
Disallow: /users/
Disallow: /xmlrpc.php
Disallow: /*/trackback/
Disallow: /*/embed/
Disallow: /*utm*=/
Disallow: /*openstat=/

Sitemap: https://mysite.com/sitemap.xml
Sitemap: https://mysite.com/sitemap.rss


Что добавить? Что убрать?
  • Вопрос задан
  • 133 просмотра
Пригласить эксперта
Ответы на вопрос 2
Комментировать
artzolin
@artzolin Куратор тега WordPress
php, WordPress разработка сайтов artzolin.ru
Я бы убрал из этого списка все) Серьезно, просто не допускайте, чтобы у вас в тексе были ссылки на поисковые запросы, /cgi-bin/ сто лет не используется, в /wp-admin/ робот не зайдет, а страница авторизации закрыта тегом noindex, /xmlrpc.php это вообще недоступный файл с фронта, страниц авторов у вас нет, а если есть, зачем их закрывать, Openstat и UTM метки пусть индексирует, жалко что ли

И если уж вы собрались писать правила для robots, то для этого есть хук robots_txt. Работает это так:

// Добавляем правила для файла robots.txt
add_filter( 'robots_txt', 'custom_robots_txt', 20, 2 );
function custom_robots_txt( $output, $public ) {

	$output .= "Disallow: /search/\n";
	$output .= "Disallow: /author/\n";
	$output .= "Disallow: /users/\n";
	
	return apply_filters( 'custom_robots_txt', $output, $public );
}
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы