Есть файл содержащий очень много ссылок на изображения. Изображения не большого размера, НО их очень много.
У меня есть два варианта
1. добавить весь этот список в базу данных, а потом передать это rabbitmq и пусть качает себе на здоровье.
2. грубый и не красивый, а именно увеличить время выполнения скрипта.
Как их скачать быстро и безболезненно? Как бы это сделали вы?
Если для домашнего использования, то второй вариант - какой смысл тратить время если это никто не оценит? Если же говорить о работе, то в большинстве случаев используется js скрипт циклично отправляющий ajax запросы в php загрузчик файлов пока данные не будут загружены полностью.
Юрий Левин: а если браузер упадет? интернет отрубит у тебя? Еще надо сохранять и получать прогресс выполнения. Надо отслеживать скачалась ли картинка и опять же записывать что сохранилась. Аякс подходит например на шаред хостинге где доступа к консоли в том или ином виде нет, иначе проще написать что то одно и в одном месте. В принципе делай как удобно будет. Моё дело предложить.
Анатлий Петров: не вижу никаких проблем: php скрипт возвращает ответ, возвращайте сообщения об ошибке и информируйте пользователя. Если интернет отвалиться, то вообще никакой вариант работать не будет)
а в плане как качать быстро и безболезненно вопрос не понятен, безболезненно кому? Не думаю что от скачивания кому ни будь кроме копирастов станет больно, но их не жалко вроде:)
А так реализовать загрузку асинхронно в многопоточном режиме идеальный вариант.
Виталий: на C# реализовать асинхронно не беда, но в конкретном проекте требовалось решить задачу с php так что использовал вариант Антона. Но за помощь спасибо