> Можно вручную загрузить все файлы из публичного каталога по их ссылке просто обычным wget:
Помнится, как-то раз я пытался это сделать (или через апи, не помню) и потерпел сокрушительное поражение.
> была утилита ydiskarc, попробуйте, может она еще работает?
И да, и нет. Скачивать она скачивает (в чём её несомненный плюс), но работать так, чтобы её можно было применять для чего-либо серьёзного - она, похоже, не работала никогда. Но я это исправил: https://github.com/dining-philosopher/ydiskarc .
Почувствовал себя на старости лет почти настоящим программистом, так сказать. Ежели бы ещё самостоятельно раскурил, как с яндекса качать - было бы совсем замечательно, но увы.
И таки да, скачал все 2,2 тб файлов. 800 гб из которых были откровенным дублем, а ещё 500 гб - дубли, заботливо рассованные по различным папочкам и переименованные.
К сожалению, я не веб-программист (был бы им - быть может, и вопроса бы не возникло). А искать стороннего веб-программиста - тоже отдельное искусство, мне не подвластное, плюс это наверняка долго и дорого.
> Офисы и их злокачественные опухоли типа Акцесса создадут больше проблем, чем решат
Помнится, как-то раз я пытался это сделать (или через апи, не помню) и потерпел сокрушительное поражение.
> была утилита ydiskarc, попробуйте, может она еще работает?
И да, и нет. Скачивать она скачивает (в чём её несомненный плюс), но работать так, чтобы её можно было применять для чего-либо серьёзного - она, похоже, не работала никогда. Но я это исправил: https://github.com/dining-philosopher/ydiskarc .
Почувствовал себя на старости лет почти настоящим программистом, так сказать. Ежели бы ещё самостоятельно раскурил, как с яндекса качать - было бы совсем замечательно, но увы.
И таки да, скачал все 2,2 тб файлов. 800 гб из которых были откровенным дублем, а ещё 500 гб - дубли, заботливо рассованные по различным папочкам и переименованные.