@tenaro

Htaccess — что считается дублями?

сайт на 5 страниц без cms.
обрезал ".php" у страниц через htaccess.
теперь все страницы доступны по двум адресам
- site.ru/cat
- site.ru/cat.php

это считается дублем? что в таком случае писать в robots.txt ?
  • Вопрос задан
  • 2387 просмотров
Решения вопроса 1
XXX
@XXX
Решение где-то рядом
@tenaro В этом случае Вам не robots.txt нужен, а прописать для каждой страницы каноническую ссылку:
<link rel="canonical" href="http://site.ru/cat"/>
Ответ написан
Пригласить эксперта
Ответы на вопрос 1
reffy
@reffy
Я молодец.
Вы можете закрыть в robots все .php файлы:
Disallow: *.php

Но делать это следует только в том случае, если у вас нет никаких .php страниц, которые должны быть в индексе.

Можно ещё сделать с помощью .htaccess редирект со всех name.php на name (т.е. редирект с урлом с расширением на урл без расширения). Это легко гуглится.
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы