Иван Шумов
@inoise Куратор тега Amazon Web Services
Роман Мирр, любопытный вариант, действительно. s3 дает возможность ходить по файлу по тому что по факту он отдает объект потоком - обычная фича для хранилища. А вот за подробности структуры zip-архивов спасибо, заполнили белое пятно в моем образовании. Итого, получается возможно. Встает только один вопрос - а надо ли так изголяться? Даже если там многогигабайтный файл - его всегда можно распаковать прямо в экосистеме AWS и больше не мучаться с архивацией. А сам архив скинуть в Glacier, если очень надо
Иван Шумов
@inoise Куратор тега Amazon Web Services
Роман Мирр, range это определенный набор байт объекта. Теперь вспомним - объект был архивирован в zip на стороне клиента и залит в s3. Таким образом файл под компрессией и мы не можем без распаковки объекта получить исходные данные. s3 не предоставляет вычислительных мощностей.
Труд Фаулера действительно достоин. Можно сказать что это сейчас настольная книга архитектора, и даже не начинающего. Жаль не все до него доходят. Хотя он объясняет все достаточно простым, как мне кажется, языком
Алексей Коновалов, зависит от задачи) у меня в компании более 100Gb фотографий. 90% из них - не частый доступ, а 5% дальше thumb не идёт. Я генерирую фотографии нужного размера в локальный кэш вебсервера на сутки. Так что при повторном обращении если ресайз есть в кэше то он берется оттуда