Задать вопрос
Ответы пользователя по тегу 1С-Битрикс
  • Почему не могу переопределить z-index?

    @scooby_doe
    Попробуй через CSS перебить значение у блока, с использованием !important:

    .block {
    z-index: 3500 !important;
    }


    important перебьет инлайновые стили, но только если они сами не important
    Ответ написан
    Комментировать
  • Как после авторизации обновить страницу модуля Битрикс?

    @scooby_doe
    После авторизации где и куда редирект идет? На страницу с модулем?

    Судя по дефайну ADMIN_SECTION это админка.

    При авторизации в админке битрикс в запросе POST передаются специфические поля в духе
    TYPE: AUTH
    AUTH_FORM: Y


    Если в этом коде нужно "перезапустить js" путем обновления страницы, сделай на php, через использование битровых методов из $APPLICATION, редирект на эту же страницу.

    Например, после global $APPLICATION; добавь следующий код:
    if (
    	$_SERVER['REQUEST_METHOD'] === 'POST' 
    	&& isset($_REQUEST['TYPE']) && $_REQUEST['TYPE'] === 'AUTH' 
    	&& isset($_REQUEST['AUTH_FORM']) && $_REQUEST['AUTH_FORM'] === 'Y'
    ) {
    	LocalRedirect($APPLICATION->GetCurPage());
    	exit;
    }


    Если нужно перезагрузить страницу, то это можно сделать так. Ну либо сделай на js, если он в момент загрузке каким-то образом будет работать.
    Ответ написан
  • Как остановить индексацию не правильных адресов в Битриксе?

    @scooby_doe
    Скорее всего правило Disallow банит не то и его нужно переделать, если уже был рецидив.

    Эти урлы способом своей генерации (если таких страниц конечно нет на сайте) похожи на проделки js либы sourcebuster.js или на какой-то её аналог.
    По этой либе, кажется, есть гайд тут, можно попробовать понять каким образом она билдит такие урлы.

    Банить нужно не по null, а по фрагментам в духе:

    /data/
    /params/
    /utils/
    /helpers/
    /migrations/
    (но это устранение следствия, а не причины и конечно делать это нужно, если таких легальных урлов на сайте нет)

    Из глупого, что пришло в голову, можно на самом сайте создать страницу, которая будет ловить эти "неправильные" урлы, где в head у тебя будет:
    <meta name="robots" content="noindex">
    (но это может быть опасно, если в обработку этого php скрипта попадёт легальная страница)

    Из опыта: поисковые системы находят страницы сайта не только по ссылкам на страницах (a href="url"), но и смотрят куда юзеры заходят и какой урл у них был на сайте - в этом им помогают сервисы аналитики (для Яндекса это метрика, для Гугла это аналитика - после нахождения страницы оно скармливается поисковой системе).
    Ответ написан
    Комментировать