Есть приложение, постоянно взаимодействующее с большим количеством мелких файлов в локальной файловой системе сервера и нескольких, смонтированных по NFS, папках с соседних серверов.
Дешевле будет переехать на S3-подобное хранилище. Дело происходит в DigitalOcean, у них есть "
Spaces", работающие по протоколу AWS S3.
Есть сомнение в скорости доступа: возможно, работа со Spaces будет медленнее, чем прямой доступ к файлам через NFS и локальным.
1.
Как собрать статистически достоверные цифры скорости «как это будет, когда переедем»?
И если провал скорости не в полтора и более раз затормозит работу, то надо переезжать. А это ощутимое по времени занятие, на пару часов.
2.
Как переехать без downtime?
С файлами работает PHP код. Готова имплементация интерфейса и для локально доступных файлов и для S3 API. Кроме того, S3 можно смонтировать как локальный маунт.
Думал о том, чтобы для контрольной выборки файлов, скажем, 5%, включить дублирующую работу и с локальными и с S3 файлами и посчитать увеличение времени.