Tark: Разумеется он не будет работать. Там будет что-то типа Request ответа, скорее всего обычный Get. Мой пример рабочий, но дело именно в настройке Скрапи. Неужели никто не использует Скрапи через один файл?
Я практикую написание скрипта Scrapy в одном файле. Да, эта строка вернет результат сразу. Но мне нужен сразу следующий результат. То есть ответ по следующему году и так далее. Однако я получаю только первый, потому что Скрапи по всей видимости думает, что я ошибочно запрашиваю одинаковые ссылки и по умолчанию блокирует их. Как отключить блокирование или как мне отправить реквесты с разными formdata?
Ну да, создаем три таблицы и даже интерфейс не делаем - пусть пользователи сами записывают. А если серьезно, то мне хотелось увидеть какие-то примеры таких сайтов с хорошей архитектурой. Я искал и ничего дельного не нашел.
Эх, только что отдал заказчику. Реализовал по хитрому: {'name': 'кусок_url', 'data': {'lang1': 'value1', 'lang2': 'value2'}}. Поиск, естественно, осуществлять стало легче и все заработало. Но я очень признателен за ваш вариант. Не последний раз с Mongo работаем :) Спасибо!
У меня Python 2.7 (Scrapy). Вариант с ord отлично подошел, но у меня он выглядит иначе - print '8⃣9⃣2⃣2⃣6⃣1⃣2⃣6⃣9⃣9⃣6⃣�'.replace(chr(226) + chr(131) + chr(163), ''). А вот второй вариант, к сожалению, не срабатывает. Ничего не заменяется. Я вот и пытался перекодировать, чтобы потом посимвольно заменить, но на деле намного проще и быстрее проверить перекодированный набор символов, чем кодировать всю строку туда и обратно.
Если вставить эти цифры в первую строку Sublime Text, то название будет "цифры в квадратах". На этом сайте все тоже отображается в квадратах, как и в моем втором редакторе кода. Вы по прежнему думаете, что эти цифры - особенность инстаграмма?
lololololo: Меня смущает подход. Просто я не люблю вот такие конструкции: commmand(command(command.command()).command()). Изначально я просто искал другую команду вместо extract'a. Чтобы можно было сразу получить строку и не городить тут велосипеды и костыли.
lololololo: Он может найти CSS файл, но разбирать его не может. Разбирать, к сожалению, придется RegExp'ом. Вообще странные у вас потребности - разбор CSS :)
Вы вообще читаете то, что я пишу? В моем случае - не может, потому что элементов всегда больше нуля. У меня была специальная функция для обработки списка. Подобная лямбда функции выше, но не лямбда (я забыл чего-то про такую возможность). Но дело в том, что оба варианта выглядят топорно. Вопрос стоит о поиске альтернативе .extract(). Вдруг я упустил что-то. Но видимо нет, придется и дальше использовать функцию.
Очевидно, никак. Вопрос стоит так, что элементов всегда будет больше 0 (в моем случае, на сайте может не быть телефона или адреса, но всегда есть имя и изображение).
Это весьма неплохой способ решения проблемы, но какой-то unpythonic. Я надеялся, что есть в Scrapy какая-то функция хитрая, которую я пропустил. Но вас способ тоже очень интересен, спасибо за ответ. Пока воспользуюсь им:)
Создается куча листов с тем же содержанием. Пробовал VBA скрипты из интернета, но ничего дельно не получил, ибо даже VBA не могу поковырять. Но все равно спасибо.