reapersuper14
@reapersuper14
Python-программист-студент. Учусь делать круто.

Как загружать большие страницы с помощью Grab:Spyder?

Доброго времени суток, друзья.

Загружаю множество страниц из интернетов и складываю содержимое в бд. Те страницы, что небольших размеров, загружаются без проблем, но страницы большого объема в лог пишут следующее:
DEBUG:grab.stat:RPS: 0.26 [error:operation-timeouted=7]
Выделенные курсивом цифры меняются от страницы к странице.

Перерыл всю документацию Grab'а, все Issues на гитхабе, все посты в GoogleGroups. Даже исходники поковырял. Много чего нового узнал, но только не значение загадочного "timeouted".

Дорогие друзья, объясните, пожалуйста, что эта ошибка из лога значит (предполагаю, что "соединение разорвано, т.к. превышен интервал ожидания") и как сделать так, чтобы паучки качали страницы любых объемов.

UPD:
Забыл упомянуть, я использую прокси-сервер.
Без него мне просто дают 429 ошибку в 75% случаев.
  • Вопрос задан
  • 190 просмотров
Пригласить эксперта
Ответы на вопрос 1
dimonchik2013
@dimonchik2013
non progredi est regredi
grab использует pycurl, можете попробовать его опциями задать
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы