NeoAnderson, я немного не это имел в виду.
Гугл может проиндексировать по картинкам, но не по текстам. Взять фрагмент, но не всю страницу. Взять что-то - и выкинуть почти сразу.
Ну и в принципе не хочет он больше вносить в свои базы данных всё подряд. Эксперимент с ""AAAHHHKJFKK" мог бы прокатить лет 10 назад, но сейчас он не всегда берет в индекс даже вполне внятное, его уговаривать надо.
Большая часть индекса хранится на обычных HDD. SSD - для значимых сайтов. И уж самое актуальное и горячее - в оперативке.
Ийеш об этом рассказывал, думаю, ему нет смысла врать.
VEri63, ПС рассматривают главную страницу как исходный и основной узел графа. Было время, когда можно было хорошо двигаться отдельными страницами, в отрыве от всего прочего. Отчасти можно получать трафик из поиска таким образом и сейчас. Но хостовым метрикам сейчас явно отдаётся предпочтение среди всех прочих.
Так что в общем, я бы попробовал определить максимально точно, насколько возможно, основную тему блога. Можно посмотреть классификатор Гугла на эту тему, там список большой. И исходя из этого оптимизировать главную страницу. Попробуйте посмотреть здесь: https://cloud.google.com/natural-language/docs/cat...
В общем, если у сайта уже есть лояльная аудитория - ПС и сами разберутся. В оформлении главной как структуре из нескольких лент (по основным темам, тегам, новинкам, популярному) нет никакого криминала - там всё равно перетасовываются ключи из одних и тех же тем так или иначе, а ПС прекрасно понимает, что речь - о блоговой площадке. Единственный момент - этих лент нужно всё таки несколько, а не одна со списком последних 5-10 материалов.
VEri63, всё зависит от того, под какие ключи вы хотите оптимизировать главную страницу. Если у вас там просто лента постоянно меняющихся новостей - трудновато будет заточить под что-то, кроме брендовых/витальных.
Лента новостей как основной контент - это что-то из эры до веб-2.0, rss и т.п. В общем, если тематику определить сложно - можно делать и лентой, снабженной хорошей навигацией по блогу. Посмотрите на топовых конкурентов, это всегда хорошая идея.
Norwood, не слышал я, чтобы явный спам в микроразметке негативно влиял на позиции. Максимум - разметка не учтётся.
Но я не имел в виду, что надо выводить одну и ту же цену. Тут надо найти баланс между правовыми, коммерческими и техническими моментами. И микроразметка не должна содержать данные, отличающиеся от выводимых для пользователя. В оптовом и b2b-сегменте ценник всегда плавающий, это нормально. Просто нужно указать некоторую усредненную цену с отметкой, что это не оферта, конечное предложение формируется индивидуально.
Не думаю, что Гугл будет проверять этот момент отдельно (если речь идёт о рунете). Яндекс - вполне себе может.
Refguser, я не продаю сайты, как и решения против спама. Но факт остаётся фактом: на WP любой зиро-дей срабатывает за часы, и в логах любого сайта я вижу ботов, щупающих wp-config - которого там нет. Про форки поиска форм WP ужо и вовсе молчу, это классика.
Refguser, что значит "для меня, для тебя"? Есть юридические вопросы. Есть гласные и негласные договоренности. Есть устоявшиеся практики. Ставить ссылку с клиентского сайта на сайт разработчика - вот как раз такая устоявшаяся норма. Кому не нравится - просто её сносит или не разрешает её ставить. Это тоже норма.
Да как бы и повода шухер подымать тут нету никакого.
Refguser, нету тут развода. Если я с клиентского сайта начну левые ссылки ставить - то таки да, это - развод. Но сайт - это про авторские права в том числе. Они не отчуждаются. Точно так в EXIF указано, кто снимал, где и на что. Заказчик может использовать картинку как угодно (если это оговорено в договоре), но это не значит, что дизик, верстак и прочие, участвовавшие в разработке сайта, утрачивают свои авторские права на работу.
Ну и да, в договоре обычно фиксируется, может ли студия размещать ссылку, и может ли заказчик её обнулить при желании. Проблемы в этом ровным счётом никакой. Есть объект авторского права - есть указание на автора.
Михаил Р., понятно, что и PR, и BR просчитывают шанс перехода. Он, собственно, и определяет вес. Чем дурнее ссылка - тем меньше шансов.
Но в данном случае, судя по всему, речь идёт именно о важности анкора в рамках текстовой оптимизации. Для Яндекса это имеет значение как одна из коммерческих метрик. "Веса" как таковые можно в принципе проигнорировать, в этом плане псевдо-ссылки ничуть не хуже обычных.
dedboroda, я бы сказал, что улучшить может попросту драматически. Да, это подход полиграфический, и подходит не для любой фотографии. Но ряд обработок там в принципе уникальный, и не воспроизводим никакими иными способами. Например, возможность добавить цветовые оттенки и текстуры, который изначально нет - например, из однообразного ядовито-зеленого цвета травы получить насыщенную оттенками интересную полянку. Или получить насыщенную цветную картинку, не трогая "насыщенность" (satutation).
Я сам достаточно случайно получил хорошие результаты во время тестирования. Меня они просто изумили, и я взялся за чтение. Сейчас я вообще не представляю работу в "Фотошопе" без этого комбайна и боюсь, что рано или поздно не смогу установить его в ФШ чисто технически.
Можно и на потоке, но сначала надо потратить немножко времени на сами экшены, вернее, их изучение. Это очень нестандартный инструментарий, там каждый экшн - под сотню действий, а то и больше. Аналогов не существует.
Вдобивку в машинке есть толстенная томина страниц на 800, где Маргулис подробно рассказывает, что и как устроено, и ради чего весь сыр-бор.
Darken2019, первое - это канал, откуда льётся. Из поиска? - Если да, то по каким ключам. Прямые заходы? - Ну, тут явно боты в первой стадии нагула профилей. Соцсети? - Тоже, вероятно, боты, если только у вас не какой-то громкий медийный проект. Бывало, что по ссылке где-то в инсте на сайт с 20 визитами в день разово переходило по 5 тысяч.
То же самое - по данным из "Вебмастера", что там с конкретной посадкой, показами и CTR, по каким ключам. Это если вас всё таки "бандит" наверх подкидывал.
Ну и плюс конверсии. Траф рост - они менялись?
Просто хотя бы понять, боты это или люди. И если боты - как вы попали в списки для нагула. Туда попадают сайты из топ-10 чаще всего (хоть в Гугл, хоть в Яндекс - просто ваш сайт ещё найти как-то надо, чтобы внести в списки).
Михаил Лялин, у ТС всё в Метрике зафиксировано, тут либо живые люди, либо боты, имитирующие живых. Логи, конечно, всегда изучить полезно, но тут я бы не с этого начинал.
А какой смысл в этом маневре?
Проиндексированная страница без реальных изменений не будет восприниматься поисковыми системами как обновленная. Хуже того, если ПС сообразит, что ей пытаются манипулировать таким образом - может подрезать лимиты на обход.
Люди же по факту редко смотрят на даты публикации.
Гугл может проиндексировать по картинкам, но не по текстам. Взять фрагмент, но не всю страницу. Взять что-то - и выкинуть почти сразу.
Ну и в принципе не хочет он больше вносить в свои базы данных всё подряд. Эксперимент с ""AAAHHHKJFKK" мог бы прокатить лет 10 назад, но сейчас он не всегда берет в индекс даже вполне внятное, его уговаривать надо.