Во-первых не Amazon, а AWS, а во-вторых это не они делают, а предлагается решение. И оно ставится на ресурсы в AWS что без специальных знаний очень тяжело, больно и дорого)
TSUKER, все есть в документации) надо просто учиться читать. Вот не поверь что за все это время ты изучил все типы хранения, выяснил средний жизненный цикл своих файлов, прочитал про Cloudfront, lifecycle policy и ещё много чего) я не говорил что это просто, но тот кто говорит что это дорого: или обладает колоссальным объемом данных, или любит кроить, или бедный, или просто не потратил достаточно времени на изучение)
Я смотрел на разные облака когда выбирал в какое уходить и, поверь, по совокупности всех факторов AWS - топ)
VITYA-XY1, Ops всегда нужен) это вообще очень отверженные и важные ребята, особенно в AWS. Можно пофилософствовать на этот счет вне рамок форума. А черновая работа ... зависит от объемов и глубины. Руки все-равно должны быть по локоть в этом - иначе просто не будет понимания. Так что зависит от команды)
VITYA-XY1, считают уже за деньги в виде работы ибо на это нужно время, более точные данные и все в таком духе. Файлы у вас большие, поэтому скорее всего это не получится оптимизировать по цене. Открываем AWS s3 pricing и считаем внимательно на бумажке.
Не называйте Glacier ледником - от этого аж передергивает. И вы не правы - туда можно залить напрямую)
VITYA-XY1, зависит от данных - иногда это сутки, иногда часы или минуты - зависит от того сколько хочется платить за хранение. Чем больше платишь за хранение тем дешевле и быстрее доставать обратно