ProgerMir, технически - да. Если страница рекомендацией владельца сайта исключается из индекса, то вероятность того, что краулер каким-то образом перейдёт на каноническую исчезающе мала.
Другое дело, что есть всё же разница между сканированием и индексированием - для Гугл как минимум. Мета "robots" со значением "noindex, follow" буквально означает, что вносить этот контент в индекс не надо, но по ссылкам переходить стоит. Робот всё же может сканировать контент и идти куда-то ещё. Но рассчитывать, что это произойдёт, едва ли стоит - поисковые системы и так дичайше экономят свои ресурсы, и страничка в noindex просто выпадает. Вот поэтому я в ноиндекс страницы пагинации не закрываю никогда.
В целом же надо смотреть конкретно на проект. Если нет проблем с ранжированием целевой посадочной страницы с переклейкой запросов на страницы пагинации - пусть они будут открыты для сканирования и индексирования. Задача - поисковая система должна консолидировать весь этот ворох воедино и понимать, что страницы пагинации - вспомогательные для целевой, канонической. Вот если не понимает - надо разбирать, почему, и искать решения.
Последний раз проблемы с пагинацией я видел довольно давно. Первая - дичайше переспамленная целевая. Вторая - робот тратит весь бюджет на сканирование в пользу пагинации, хотя там ничего хорошего, в общем-то, нет.
MelkijTim, не думаю, что проблема в аффилированности. Склеенные сайты обычно выносятся из индекса наглухо.
То, что вебмастер отдаёт контент при проверке - мало что значит. Тут надо смотреть именно логи, притом за период - прежде всего на размер полученных ботом данных. Если разница существенная - вполне вероятно, что речь как раз про софт 404. Банально: робот регулярно заходит ночью, а у хостера там какие-нибудь сервисные работы, и робот получает примерно ничего.
Вылет за топ-100 для нормальной главной страницы - это 100% про фильтр, а вот какой - надо думать. Версию с тайтлами я бы сразу отбросил, это мало влияющий на что-то фактор. Ну и за артикулы совпадающие никто выкидывать не станет.
Остаётся либо техничка, либо выпадающая из шаблона структура страницы - в том числе и по ключам BM25. Сопоставляйте с топ-10-15.
Если бы сайт из топов отъехал в топ-30 - можно было бы понять, Яша делает это в том числе и потому, что не любит застойность выдачи и топы иногда перетряхивает рандомно. Но тут что-то другое.
Как вариант - оцените ПФ хоть по Метрике или Вебмастеру. Результативного склика я давно не видел, но на больших объёмах и за долгое время эту вероятность я бы всё же рассмотрел.
Ziptar, если я к мыльному цифровому фото с пиксельными шумами добавлю пленочное зерно - это дорисовка, тем более от балды? Если к сизой цифровой гамме применю пленочный цветовой профиль?
Картинка визуально будет много приятнее - и без всяких дорисовок.
Adamos, не соглашусь.
Вот у нас фотка маленького разрешения, сделанная на допотопную цифровую мыльницу. Пиксельные гнусные шумы, сбитый баланс белого, малый динамический диапазон. Это всё правится.
Шедевр не выйдет, но замаскировать что-то, выправить проблемное - вполне вариант.
Ну и что касается деталей. У Маргулиса есть "метод марсианина", основанный именно на добавлении отсутствующих деталей вне акцента (цветовых, тональных) - вполне себе реальный улучшайзер (хотя и не для всего). Почему б нет? Чистая психофизика, как с теми же шумами. Цифровые смотрятся плохо. Подмешиваем "аналоговые" - другой коленкор, хотя зритель даже не всегда понимает, что изменилось.
Ror21e41, просто обычная история. Смотришь в логи - и видишь, как гуглобот ползает по давно убитым урлам спустя годы после правильно выполненной реструктуризации.
Индекс-то не один, их много. Тут матрица обратных, тут скачанные странички, тут данные по ссылкам, полезным сигналам, там - список шинглов, которые Гугл счёл хорошими. И вот структура убивается, а эти обломки по разным индексам остаются.
Гуглоиды официально признавали, что 301 редиректы окончательно переклеиваются за срок чуть не в полтора года. Это, конечно, в большей мере доменов касалось, но очень уж похоже на правду и относительно страниц. А ресурсов на обходы они выделяют с каждым годом всё меньше - и незачем тратить эти их бюджеты на обход давно мёртвых адресов, не говоря уже про риски разных глюков.
JDJ, "знание" - это не совсем то, что можно получить в готовом виде. Это не прочитанная или услышанная информация. Это процесс извлечения множества данных из множества источников, их фильтрации, оценки, взвешивания, суммаризации и формирования выводов на этой основе.
Даже "высшее образование" - это только способ обучения обучению, формирование правильных структур, нейронных связей, методов и т.п.
И собственно знание - это примерно то, что останется в голове после амнезии в результате удара лопатой плашмя. Это вшито в кости, а амнезия - всего лишь сброс кэшей.
Евгений Мокрышев, я выше достаточно подробно расписал.
Для Яндекса сайт - своего рода книга, где должны быть начало, кульминация и финал. Главная сюжетная линия, её ответвления, параллельные сюжеты. Обложка, фронтиспис, выходные данные. Чётко обозначенная тема и аудитория. И понятное дело, какие-то причины, чтобы в принципе на эту книгу потратить время и прочие ресурсы - сканирование, индексирование и ранжирование - небесплатны, и ресурсов жрут много. Чтобы потратить на это реальные бабки, поисковой системе нужны весомые причины.
У вас сейчас - разрозненные страницы, из которых Яндексу книгу сшить не получается. Остальное - следствие.
Ну и самое главное. Вот у вас страница с тайтлом "Доброе утро". Запрос "Открытки с добрым утром" - конская частотка. В топах - чудища лесные. У каждого на странице - минимум 50 картинок. У вас там - ноль.
Вот и первое, что стоит сделать, чтобы получать позиции и траф: посмотреть, что ждёт Яндекс, и что у вас на эту тему в сравнении с тем, что он уже показывает в топах.
Евгений Мокрышев, тут-то как раз ничего сверхъестественного. Это называется бонус новичка. Был - и закончился, Яндексу что-то не понравилось.
Это исправляется.
Евгений Мокрышев, ну то есть у вас исходное - всё ж творчество. А с сеошкой чуть другие критерии.
Возьмите любую пристойную ИИшницу и попросите её составить семантический граф для вашей темы. Максимально полный, развернутый. По каждому узлу (начиная с верхних, самых весомых) оцените поисковый спрос и наличие релевантных страниц у вас на сайте. То, чего не найдётся - в первую очередь в работу.
Если у вас в приоритете не творчество, а сайт - хоть генеренку добавляйте, пусть и по принципу "чтобы было", не должно быть дырок в структуре. Потом, если важно, авторские работы дольёте со временем.
Моментального и пушечного эффекта не даст, но устойчивый рост вдолгосрок - вполне себе.
Евгений Мокрышев, я бы в принципе всерьёз поработал со структурой - как страниц, так и навигации.
Скажем, запросы про открытки на день рождения. Именины есть, день ангела упомянут. А где более тяжёлая артиллерия? Яндекс не видит релевантных страниц, я вручную тоже не нашёл. А ведь это ключевой узел, и трафиковый.
Евгений Мокрышев, Гугл долго раскачивается. Без каких-то экстра-усилий пока не пересчитает пользовательские метрики, исторические по трафику и всё такое - околонулевая динамика. Зато потом, если всё хорошо, стабильный рост, без припадков и конвульсий в стиле Яндекс.
В вашем случае для Яндекс все же надо найти ожидаемый шаблон в нише и придумать способы постоянно получать и наращивать трафик (или подсмотреть его по конкурентам). Это может быть несколько трафиковых статей (связанных с темой напрямую), какой-то встроенный сервис (скажем, возможность добавить на картинку кастомный текст), или просто хорошо проработанная презентация представленного ассортимента картинок.
Месяц назад я шутки ради решил в комменты добавить классическую бабушкину "блестяшку" с чем-то типа "Доброго утречка!" или "Большое спасибо!" - и найти это было сложно. Гораздо сложнее, чем найти в Яндекс товар или информацию.
Евгений Мокрышев, тренды одни и те же. Разница только в том, что Google не рассматривает РФ как целевой регион и не использует здесь самые передовые алгоритмы ранжирования. Возраст хоста, объём ссылок, ключевики - вот и всё.
Как выяснилось, что даже ПФ Google тоже считает приоритетными, но считает их за большие периоды - а не как Яндекс, по сути в прямом эфире.
Евгений Мокрышев, мы же Яндекс обсуждаем и его требования?
У него всё шаблонизировано, задачка лишь в том, чтобы эти шаблоны выявить, и сделать лучше, чем у других.
Евгений Мокрышев, так это с вашей точки зрения он показывает нерелевантное. Речь-то - про картинки, а их контент он оценивает напрямую, минуя любое текстовое описание. Он видит, что там.
Во-вторых, тема продвижения по картинкам давно превратилась в дорвейную. Пока вы вручную делаете свой контент - дорвеи его парсят и растут тысячекратно.
Я бы посоветовал начать анализ со следующих пунктов:
а) Анализ структуры сайта (в целом и позапросно) в сравнении с топами
б) Продумал бы УТП - какие-то фишки, явно выделяющие вас из общей массы сайтов с картинками
в) Пересмотрел бы работу с семантикой. У Яши с этим в 2025 много что поменялось.
Ну и не забывайте, что у Яндекса всё же рулит трафик и пользовательские сигналы. Если их нет или мало - это про МПК как минимум. "Вебмастер" в разделе индексирования что по индексации показывает?
Другое дело, что есть всё же разница между сканированием и индексированием - для Гугл как минимум. Мета "robots" со значением "noindex, follow" буквально означает, что вносить этот контент в индекс не надо, но по ссылкам переходить стоит. Робот всё же может сканировать контент и идти куда-то ещё. Но рассчитывать, что это произойдёт, едва ли стоит - поисковые системы и так дичайше экономят свои ресурсы, и страничка в noindex просто выпадает. Вот поэтому я в ноиндекс страницы пагинации не закрываю никогда.
В целом же надо смотреть конкретно на проект. Если нет проблем с ранжированием целевой посадочной страницы с переклейкой запросов на страницы пагинации - пусть они будут открыты для сканирования и индексирования. Задача - поисковая система должна консолидировать весь этот ворох воедино и понимать, что страницы пагинации - вспомогательные для целевой, канонической. Вот если не понимает - надо разбирать, почему, и искать решения.
Последний раз проблемы с пагинацией я видел довольно давно. Первая - дичайше переспамленная целевая. Вторая - робот тратит весь бюджет на сканирование в пользу пагинации, хотя там ничего хорошего, в общем-то, нет.