Столкнулся с проблемой. Как и чем сжать 15 миллионов файлов по 10-100 килобайт?
Делаю на MacOS, пробовал в тар: tar -cvpfz
Но через час получил - tar: Error exit delayed from previous errors.
Мне нужно их упаковать в один архив что бы положить на облачный диск, например Google Drive.
Aves: Сделал как вы написали, первое пропало, осталось: tar: Removing leading '/' from member names
О чем это говорит?
И почему после часа: tar: Error exit delayed from previous errors. ?
Может есть надежный способ упаковать 15 миллионов файлов? Хотя бы без сжатия...
скорее всего у вас гдето в файлах приосходит ошибка четния прав доступа и тд.
добпишите игнорировать ошибки и запустите заново.
Как правило при большом количестве файлов проблеым начинаются с большим количеством аргументов, но тут я не вижу этого
Как вариант избавьтесь везде от *
поскольку для подстановки аргументов с регуляркой приходится собрать все эти аргументы. Если же * не будет то и соответственно собирать их все за раз нет необходимости
Например читать find в этой папке и exec выполнять команду
в таком случае аргументы будут подставляться построчно
а файнд не использовал *
НО еще раз это у вас не от количества.