Есть некий список http ссылок с файлами. Их нужно скачать по порядку и склеить в один файл. Задача тривиальная, и решается с wget и > file. Но, когда таких "кусков" слишком много — скорость загрузки становится ничтожно низкой.
Хочется как-то запараллелить процесс. Например, как это сделано в том же торренте... Есть ли примеры реализации? ЯП не имеет значения