@EvgMul

Как правильно выгружать большой объем данных?

Здравствуйте. Требуется спарсить сайт, на котором порядка 300 изображений. Все эти изображения нужно выгрузить к себе на сервер.
Проблема в том, что из-за такого большого объема данных скрипт падает по тайм-ауту.
Я понимаю, что можно увеличить тайм-аут, но возможно есть более "правильный" способ решить эту проблему?
Заранее благодарен всем отозвавшимся.
  • Вопрос задан
  • 220 просмотров
Решения вопроса 2
glebovgin
@glebovgin
Full Stack Web Developer
День добрый.
Если сделать set_time_limit(0), то скрипт будет работать пока не закончит или не помрет из-за другой причины.
Ответ написан
skobkin
@skobkin
Гентушник, разработчик на PHP и Symfony.
Такие вещи делаются в командной строке, где нет лимита на время исполнения.
Для удобства написания консольных команд есть, например, Symfony Console, которая позволяет делать такое:
cli-show-1.png
и такое:
progressbar.gif
Ответ написан
Пригласить эксперта
Ответы на вопрос 1
ThunderCat
@ThunderCat Куратор тега PHP
{PHP, MySql, HTML, JS, CSS} developer
Если хостер позволяет крон - парсите страничку, дергаете ссылки на картинки, пишете отдельно(файл/база, не принципиально). Через заданный промежуток выполняете скрипт загрузки 1-2 изображений, ставите статус скачано в сохраненном файлике / базе.
Если крона нет - прийдется открыть скрипт в браузере, добавив рефреш яваскриптом через н секунд/минут.
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы