Задать вопрос
Ответы пользователя по тегу Google
  • "gemini недоступен в вашем регионе", несмотря на то что полгода все работало?

    aliprofi
    @aliprofi
    Хочешь стать неудачником? Всегда ищи виноватых!
    Скорее всего дело в ВПН, просто ради интереса поставьте в браузер другие бесплатные ВПН расширения и проверьте и все поймёте сразу.

    Я на компе делаю все очень хитро: у моего ВПН можно делать отдельные туннели для разных программ и я Google Gemini пропускаю через ВПН, а остальной трафик как обычно без обходов и это очень удобно, так как с ВПН перестают другие сайты и сервисы часто работать.

    697b0e352ba17746935570.jpeg

    Ещё одна важная фишка в моем ВПН, это многоузловой переход, который помогает обходить блокировку ВПН и его обнаружение в целом:

    697b0ea301173388287588.jpeg

    Без этих штук для меня ВПН уже не ВПН, а пустая трата денег...
    Ответ написан
    Комментировать
  • Как убрать тысячи ссылок на сайт в гугл, которые ведут на страницы которых нет?

    aliprofi
    @aliprofi
    Хочешь стать неудачником? Всегда ищи виноватых!
    В robots.txt поставьте запрет на индексацию этого подкатолога, на который ведут ссылки, если это КОНЕЧНО можно сделать по шаблону. Обычно ссылки идут на какую-то папку внутри сайта, куда интегрировался вредоносный скрипт. Это как вариант.
    Ответ написан
    Комментировать
  • Обнаружена, не проиндексирована Статус: Исключено, как победить?

    aliprofi
    @aliprofi
    Хочешь стать неудачником? Всегда ищи виноватых!
    У меня беда с выпадением страниц из индекса началась на сайте https://aliprofi.ru только в конце 2024 года.

    При этом выпадают как станицы с трафиком, так и без. Что делать пока не знаю, вижу вот такие причины, почему это происходит:

    1. Страница ранжируется по тем же запросам с другой более мощной страницей. Берем ключ основной и проверяем, если ранжирует и правда другая страница, то переносим текст и делаем редирект.

    2. Тонкий контент (мало текста). Дописываем страницу и делаем полезной.

    3. Устаревший и, по сути, бесполезный контент. Удаляем страницу или переписываем.

    Буду пробовать работать в этом направлении.
    Ответ написан
    Комментировать
  • Страницы сайта не попадают в индекс Google несколько месяцев. В чём причина?

    aliprofi
    @aliprofi
    Хочешь стать неудачником? Всегда ищи виноватых!
    Вот бот в телеге вам в помощь @SpeedyIndexBot там 100 ссылок дают бесплатно, мне помогло проиндексивароть многие внешние ссылки на свой сайт.
    Ответ написан
    Комментировать
  • Как сделать реферальные ссылки с помощью Google Analytics?

    aliprofi
    @aliprofi
    Хочешь стать неудачником? Всегда ищи виноватых!
    Я делал, только я использую Яндекс метрику, но суть та же.

    Ставите себе https://yourls.org/ на хостинг, это сокращатель ссылок, в моем случае реферальных. У меня стоит на сайте в подпапке и получается ссылка такого формата https://aliprofi.ru/links/aliexpressdesctop.

    В сокращатель ставите плагин GoogleTagManager for YOURLS и в него прописываете код Google аналитики. Ссылка редиректится через промежуточную страницу, на которой стоит код Аналитики, это буквально секунда переход, и вся статистика с переходов собирается. И ее можно легко анализировать, как анализируешь обычный сайт.

    6440e8e35b60e194657132.png
    Ответ написан
    Комментировать
  • Как добавить сайт в поисковые системы?

    aliprofi
    @aliprofi
    Хочешь стать неудачником? Всегда ищи виноватых!
    Для ускорения индексации было бы полезно покидать ссылки на статьи в разные соц сети, типа Twitter, если будут реальные переходы, или где ссылки открыты для поисковиков, типа Pinterest.
    Ответ написан
    Комментировать
  • Как улучшить результаты теста в Google PageSpeed?

    aliprofi
    @aliprofi
    Хочешь стать неудачником? Всегда ищи виноватых!
    Если у вас Wordpress, то реальные результаты дает плагин WP Rocket https://zmoe.ru/links/wprocket - ускоряет реально до 98-100 со всех метрикой и кучей других скриптов.

    624fd21a27793422594032.png
    Ответ написан
    Комментировать
  • Googlebot проиндексировал URL с параметрами, хотя стоит запрет в robots.txt?

    aliprofi
    @aliprofi
    Хочешь стать неудачником? Всегда ищи виноватых!
    Robots.txt - для поисковиков это всего лишь рекомендация, они часто ее игнорируют. Вам нужно настроить rel=canonical для основных страниц.
    Ответ написан
    Комментировать