• Ошибка загрузки ресурсов Google ботом (или "другая ошибка"). Как решить?

    @MIXANIX Автор вопроса
    Проблема с роботом гугла, он экономит ресурсы при проверке страницы: временные и трафик.
    1. Страница (html-код) должна быть короткой до 1000 строк кода
    2. Подключаемые ресурсы должны быстро загружаться и иметь малый вес.
    Крупные сайты решают эту проблему путем CDN - робот выделяет дополнительные ресурсы для сканирования стороннего сайта. А стили загружают не отдельным файлом, а в head в тег style.
    Моё решение была другим: изначально при посещение страницы пользователю по lazyload загружались 10 первых картинок, причем картинки для бота довольно большие: 350 x 350 (товары). Уменьшив число подгрузки картинок до 6 (120-200 кбайт и 100-200 мс экономии) - удалось практически (бывают исключения) полностью избавиться от такой проблемы как "другая ошибка".
    Ответ написан
    Комментировать
  • Почему зависает сайт при свободной памяти и процессоре?

    @MIXANIX Автор вопроса
    Проблему решил.
    Дело было в Bitrix CMS, а именно нашел функцию SessionTable::lock, которая шлет запросы GET_LOCK("***", 60) в базу.
    Как назло в документации о ней мало что написано. Не понятно, когда она срабатывает, но у меня подозрение что когда число одновременных запросов к MySQL подбирается к лимиту.
    В результате получаем блокировку сайта на 1 минуту и пустые логи.
    Часть запросов к БД которые шли через Битрикс прописал на чистом PHP и зависания прекратились.
    Всем спасибо!
    Ответ написан
    Комментировать