• Как задать исключение в cloudflare page rules?

    @starosta6123
    Устанавливаете первое правило в Page Rules:
    1. http://*site.com/robots.txt Disable Security
    Второе редирект
    2. http://*site.com/* Always Use HTTPS

    Порядок правил имеет значение.

    Итого для файла robots.txt задается свое правило, которое отменяет использование HTTPS. На этом применение правил для этого файла заканчивается.
    Для всех остальных страниц будет использоваться перенаправление на HTTPS.

    Яндекс перестанет ругаться на редирект для robots.txt
    Ответ написан
    Комментировать
  • Конфликт transform: skew и transition

    @starosta6123
    В строке для div, попробуйте указать не "all", а нужное свойство, которое должно трансформироваться, например, transition: opacity 0.5s;

    P.S.
    А вообще, что-то меня смущает включение <div> в <a>. Мне кажется семантически будет лучше <span> со стилем: display: block;
    Ответ написан
  • Отправка изображения в письме без сохранения на сервере?

    @starosta6123
    Обсуждение этого вопроса.

    stackoverflow.com/questions/166221/how-can-i-uploa...

    Еще на эту тему: habrahabr.ru/post/109079

    Для таких задач уже есть плагины. Посмотрите JqueryForm, например.

    Ваша задача сводится к следующему:
    1. Получить содержимое файла. Для этого используйте событие onchange и FileReader().
    2. Формируем запрос и отправляем на сервер. Используйте, например, XMLHttpRequest().
    3. Сервер получает запрос и формирует письмо. Это просто, в идеале ничего не должно меняться.

    Другой способ для старых браузеров:
    1. Создаем скрытый <iframe name="sender"></iframe>
    2. У формы добавляем target="sender".
    3. Отправляем форму как обычно.

    Для гарантированной отправки я бы сделал следующим образом:
    В шаблоне сделал бы как для старых браузеров, а потом, если браузер поддерживает все нужные "плюшки", то удалял бы target и вешал бы нужные обработчики.
    Ответ написан
    Комментировать
  • Что с этим делать?

    @starosta6123
    Проверьте потенциал роста. Если к конкурентам ходят раз в 10-ть больше, то потенциал есть.
    Делайте сайт доступным и удобным для пользователя, изучайте потребности посетителей, что можно им дать. Завяжите какие-нибудь бизнес процессы фирмы на сайт, которые побуждали бы пользователя возвращаться на сайт. Например, удобное и быстрое оформление заказа для постоянных пользователей.
    Простой пример. Вот у вас, например, сайт-визитка. Основная функция - информировать потенциального клиента о своем существовании. После того, как клиент изучил информацию ему уже не нужно ходить на этот сайт. А если этот сайт расширить и добавить функционал, который будет полезен клиенту, то посещаемость возрастет.
    Сделайте фишку, которая "подсадит" всех постоянных и потенциальных клиентов на сайт.

    Больше ничего не могу посоветовать, пока нет конкретики по сайту. На конкретном примере, можно придумать 1000 и 1 способ. А так голая теория.
    Ответ написан
    Комментировать
  • Выполнение скрипта раз в 5 секунд Linux

    @starosta6123
    Вспомнил:
    # watch --interval=5 /var/filter.sh

    еще полезное применение watch
    nsk.lug.ru/poleznye-sovety/poleznye-sovety-komanda...
    www.opennet.ru/man.shtml?topic=watch&category=1&ru...

    Можно вывод направить в /dev/null
    # watch --interval=5 /var/filter.sh > /dev/null

    Не совсем подходит под вашу цель, но возьмите на заметку.
    Запускает с интервалом в 5 секунд ваш скрипт.
    Единственное учтите, если ваш скрипт не будет успевать выполниться за пять секунд, то может быть эффект "лавинного рождения новых процессов". Особенно может возникнуть, если скрипт использует блокировки.

    А со sleep очень просто ru.wikipedia.org/wiki/Sleep

    /var/filter.sh
    #!/bin/sh
    echo "Начинаем..."
    while (true) 
    do
     echo "Ваш скрипт";
     sleep 5; # пауза 5 секунд
    done;
    Ответ написан
    1 комментарий
  • Как организовать защиту от парсинга сайта?

    @starosta6123
    1. Сайт изначально предназначен для публикации, то есть он открыт.
    2. Если вы не хотите чтобы информация была открыта, не публикуйте.

    Из 1 пункта следует, что нет достаточных средств для защиты от парсеров.
    Вопрос только в том, на сколько вы готовы и можете усложнить жизнь для парсеров.
    А нужно ли это? Может вы - "неуловимый Джо"?
    Все что может прочитать и распознать человек (а ведь именно для людей и делается сайт?) может быть воспроизведено. В части, где парсинг может быть автоматизирован, он будет автоматизирован.
    Сейчас существуют мощные парсеры Яндекса и Гугла. Если они ваш сайт не смогут разобрать, то и в индексе его не будет, значит полезная информация не дойдет до конечного пользователя.
    А тот, кто захочет, ее скопирует, если информация очень нужна. Если даже вы представите в виде мозаики из картинок и кусков, даже если зашифруете, но информация на экране должна все равно быть читабельной, а значит простой принтскрин и распознавание в FineReader будет быстрее, чем вы напишите защиту от него...

    Бросьте это занятие!

    Не существует защиты созданной человеком, которую не возможно сломать, вопрос времени...
    Единственный путь, это шифрование с выдачей ключа клиенту. Но клиент - человек не надежен, и информация уплывет, вопрос цены!

    И еще раз бросьте это!

    Я тоже когда-то думал об этом, но ни к чему не пришел. Всякая защита усложняет систему и увеличивает количество ошибок. Пользователь быстрее уйдет с вашего сайта, только потому что из-за ошибки в скрипте полезные данные не получит.

    Последний совет: бросьте это!

    Единственное что может вам помочь, это не раскрывать полностью всю информацию о предмете, или разделить на несколько частей, но при этом не должно быть неудобства для посетителя. К примеру, скройте "количество зубцов в шестеренке", любую ключевую информацию, без которой "самолет не взлетит".

    А если хотите поиграться, то пришла в голову идея: перемешивание по определенному алгоритму текста, который потом восстанавливается, применение стилей для скрытия "фальшивых" слов или фраз. Например, задать стиль, который скрывает каждое второе предложение или слово. Но к сожалению, это ломается на ура! Но доставит радости для взломщиков :-)

    Извините, за столь большой сумбур!

    1. Динамические запросы. Ну доставят какую-то головную боль для взломщика, но это не так сложно, как кажется.

    2. Верстка. Не знаю про бан от поисковиков, но это тоже ломается. Просто убираете теги и все. Просто в парсер добавляется "умный" фильтр. Можно конечно где-то картинку заменить фоном, или часть текста картинкой, но и на это можно сделать разборщик.

    3. Блокировка по IP не прокатит, так как могут пострадать реальные люди, достаточно применять динамический IP.

    А вообще, если хотите спастись от простых парсеров, то комплекс мер может помочь. Так же могу натолкнуть на идею, того, что парсеры обычно очень активны, и по количеству запросов с одного IP, по USER_AGENT, и другим меткам, а так же по отсутствию javascript, по обработке тега <МЕТА> redirekt.info/article/redirekt-na-html-s-zaderzhko... (отложенный редирект) и другим признакам. Можно запихнуть скрытую картинку (style="display: none"), большинство парсеров ее могут дернуть (зависит от настроек).

    В общем, можно поставить задачу в другом ключе: "Расстановка ловушек для парсеров". То есть ловить на том, чего обычные люди и браузеры делать не будут. Например, заполнять "скрытое поле пароль". Удачные ловушки дадут вам возможность выявить подставных, но лучше делать несколько проверок, а то можно и реального пользователя забанить. А я бы не стал банить, а сливал бы немного или частично измененную инфу. Эта инфа может стать маркером для выявления того, кто действительно желает с вас "слить".

    Все, удачи!
    Ответ написан
    4 комментария