Можете локально запустить краулер и посмотреть откуда (с каких страниц) появляются ссылки на эти URL.
Для примера можно взять Screamin Frog, Xenu, Netpeak Spider.
А потом на этих страницах найти их в коде.
Посмотреть по вложенности class div блока внутри которого они находятся.
leaderDR, Я час-то встречаюсь с тем что если чтото у админа работает а у остальных не работает, то это не подчищены кеша. Есть кешировщик какойто на сайте?
Максим Тимофеев, Максим вероятно я неправильно понял вопрос. Мне показалось человек спрашивал не о том "куда податься" или "в каком направлении копать WEB" а конкретно о SEO. О том какие перспективы у SEO и как его можно применить.
Вероятно я ошибся с вопросом и человека интересует вообще WEB направление.
- А как же собственные проекты? Их можно продвигать не делая разработку самостоятельно.
- А как же понимание того, что студия не сливает бюджеты! Толковый владелец проектов должен быть вкурсе SEO.
- Понимание того, что "работает", а что с выходом апдейтов/фильтров может только навредить? Те проекты которые "SEOшники" продолжают втупую толкать сапой.
Я думаю у SEO достаточно перспектив и без разработки. И продавать его можно отдельно.
Но комплексно правильней!
Понятно.
Вероятно они пренадлежат одному человеку.
Темы кастомные. Если Вам сильно нрасятся можн скачать стили и натянуть их на WP.
Но для этого надо разбираться в верстке и понимать как натягивать HTML темы на WP
Вот ссылка на видео по натяжке темы на WP которое нашел в сосоеднем вопросе : https://www.youtube.com/playlist?list=PLyf8LgkO_8q...
nofollow решает проблему с исходящими ссылками + если их все делать через goto. В других слчаях вы можете угодить под пенальти за манипуляции с JS криптами и тд.
3. Это не запрет на краул, это информация краулерам о том что есть необходимо делать паузы, дабы не нагружать сервер. Мне кажется вам это должно помоч.
4. Попробуйте альтернытивны плагины кеширования например тот же Total Cache.
если они на одном домене то роботс должен находиться в rootовой директории.
Тоесть если site.com тогда robots.txt должен быть доступен по site.com/robots.txt
Внутри папок robots.txt не работает
Обратил внимание на то что Yandex подсвечивает "greenhistory" в запросе с "site:". Думаю это таки особенность самого оператора, что он в выдаче в виде description пытается выдать информацию содержащим текст "greenhistory".
Для примера попробуйте такой запрос - дизайн site:greenhistory.ru
ДУмаю в данной ситуцации запрос host: будет правильней чтобы посмотреть meta descriptions.
Но на предмет переписать (и дописать) новые descriptions, подумайте.
Да. Если поисковым системам не нравится ваш meta description, они вероятней всего заменят его более релевантным. Опять таки, для того чтобы убедиться, просто поменяйте его. Подождите обновления в выдаче и проверьте результат. И у вас после данного эксперемента будет собственный "кейс".
PS. Старый meta description можно всегда вернуть назад. Как вариант, если у вас для этой (или других) страниц есть хорошие позиции, можете поиграться с изменением meta descriptions и отследить как при этом меняеться CTR. Это интересный кейс как можно увеличить трафик на сайт, изменив всего пару предложений =)
Если эта проблема появилась недавно, вероятно Вас взломали и таким образом усложняют процедуру удаления результатов взлома и уязвимостей.
Идеальным вариантом решения вопроса, будет получить доступ к FTP запросив (восстановив) данные у хостинг провайдера.
Нет, больше информации это вы хотите переехать с MSSQL на MySQL или NoSQL или.... Потому что если это все в пределах одного типа СУБД, то наверно проще будет написать код который сделает вам выборки и положит данные в нужном и удобном для Вас виде.
Написано
Войдите на сайт
Чтобы задать вопрос и получить на него квалифицированный ответ.
Для примера можно взять Screamin Frog, Xenu, Netpeak Spider.
А потом на этих страницах найти их в коде.
Посмотреть по вложенности class div блока внутри которого они находятся.
Это по сути и будет ответом, какой плагин.