DevMan, я имел в виду, прежде всего, информационные сайты, коими являются большинство сайтов в Интернете (статьи, визитки, форумы и т.д.). Тостер - это больше приложение. Но даже тостер работает без JS для гостей из сети, которые просто зашли за ответом и не намерены полноценно работать с ним.
Что примечательно, Гугл и Яндекс работают без JS. И хотя я там всё равно включаю JS, потому что это крупные конторы, это яркий пример того, как разработчики сайта должны уважать выбор/возможности пользователя.
Любой из этих языков подходит для парсинга.
Как в JS, так и в PHP есть отличные инструменты для этого. Я уж молчу про регулярные выражения, правила для которых одинаковы везде.
Ну а CSV парсить проще простого.
Так что критерий выбора именно такой, как я описал: нагрузить можно либо сервер, либо клиент. Например, если миллионы пользователей приходят каждый со своим csv, то разумно хранить csv в базе, а парсить на клиентах.
Сейчас многие сайты работают без JS, как то ни странно.
Так что если сайт ничего не показывает без JS и при этом это не крупная контора, то лично я смело закрываю такой сайт и больше к нему не возвращаюсь.
Если крупная контора, то просто единожды включаю JS для данного сайта и больше не думаю об этом.
Не важно, больше или меньше. Так должно работать.
В выделенной области вы заменяете текст xxx на zzz, защищая его таким образом.
А потом, в конце, заменяете обратно zzz на xxx.
Таком образом, получается, что заменяете текст везде, кроме выделенной области.
Это уже другой вопрос. Вы спросили о том, как не нарушить авторские права, а не как избежать ответственности за нарушение авторских прав.
Если хозяин картинки о вас не узнает, то претензий не будет. Или даже если узнает, но не захочет жаловаться, то тоже ответственности не будет.
В большинстве случаев правообладатель первым делом просто просит удалить его картинку, а уж только потом обращается в суд. Да и то, нужно выиграть дело. Также если вы с ним в разных странах, то появляются некоторые сложности, но в теории суд возможен (зависит от страны).
Пожалуйтесь в тех. поддержку поисковика. Они не любят плагиат. Просто алгоритмы не совершенны. Но ручная модерация должна исправить дело. Если достучитесь, конечно. И если докажете, что вы - автор контента.
Как - смотрите у себя. Что угодно может быть.
Например, у вас антивирус, и во время загрузки страницы он отправляет команду в центр управления "проверить такой-то URL", и с того сервера происходит вторая загрузка вашей страницы. Или в браузере включена опция проверки сайтов. Как-то так.
Ну, раз в $content нет трех одинаковых записей, значит, "добавление" срабатывает 3 раза. Само добавление дописывает лишь 1 запись. Просто сам код вызывается 3 раза.