Задать вопрос
@isaevsergei

Как правильно проиндексировать одностраничник на WP?

Имеется одностраничный сайт на WordPress. Он представляет из себя загруженную и активированную тему. Нет зарегестрированных виджетов, сайдбаров и т.п. Единственное что берётся из админки - это название и описание сайта, все медиафайлы также находятся в папке с темой.

1. Можно ли таким образом сажать сайт и насколько это правильно? Есть ли необходимость регистрировать виджеты и прочее и включать медиафайлы в сайт из wp-includes? Важно ли это для индексации или это вопрос исключительно возможности администрирования сайта из админ-панели не касаясь кода?

2. Как в этом случае прописать robots.txt и метатеги robots? Какие папки запретить для индексации? Почему нельзя запретить для индексации все папки кроме папки с темой!?

3. Запрещать ли .css и .js? Каким образом бот поймет корректно ли работает сайт если ему запрещено гулять по скриптам? Как бот оценит адаптивность верстки, если мы запретим ему индексировать таблицы стилей, в которых прописаны все наши media queries?

4. Как я понимаю, GoogleBot проигнорирует запрет на индексацию файла если он будет и в robots.txt и метатеге, поэтому нам в robots.txt необходимо ему всё разрешить. UserAgent:* в свою очередь распространяется так же и на Google. Выходит нам не следует что либо запрещать в UserAgent:* или же правила конкретно для GoogleBot'а перекрывают правила для всех роботов?
  • Вопрос задан
  • 656 просмотров
Подписаться 3 Оценить Комментировать
Решения вопроса 1
kobyakovdima
@kobyakovdima
Любитель экспериментов
Если Вы ничего не делаете через админку, то смысл вообще в CMS? Только название поменять сайту?

1) Не важно откуда подключать файлы: с wp-includes или другого места, для индексации это не важно. То есть без разницы, подключите Вы jQuery из wp-includes или с google cdn подтяните

2) Если у Вас создана 1 страница и более вообще ничего, то и запрещать в robots.txt нечего. Единственное, я бы запретил архивы автора (или вообще отключил). Это всё легко делается плагином Yoast SEO, не нужно будет лазить по файлам.

3) Нет никакого смысла запрещать css и js, нет никого смысла в этом. Зачем? Если их запретить, то Гугл (и скорее всего Яндекс) не поймёт, что у Вас адаптивная вёрстка, если все media queries хранятся в css файлах.

4) Нужно запрещать только дубли контента и информации, которую Вы не хотите видеть в поиске. В Вашем случае, у Вас всего лишь 1 страница. Нет повода что-либо запрещать, кроме страницы автора (Вас), так как Вы создаёте 1 страницу и сразу же автоматом создаётся архив автора, а также архив по датам. Всё это можно отключить плагином, ссылку на который я дал выше. Ну или же прописать это в robots.txt. Но я бы выбрал плагин, потому что он добавляет мета-теги на страницу, а они приоритетнее правил robots (так говорят сео мастера).
Ответ написан
Пригласить эксперта
Ответы на вопрос 1
@zhainar
Гуглю за вас
Точно также как и обычный сайт, пример robots для вп можно найти в гугле.
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы