Как лучше синхронизировать большое количество файлов в реальном времени?
Есть два сервера (debian) в разных датацентрах. Будет настроена балансировка. Требуется синхронизировать в реальном времени директории с тысячами мелких файлов мелкого объёма. В минуту будет добавляться около мегабайта данных (около 10 файлов всего). Какой инструмент для этого лучше выбрать?
Какие есть хорошие варианты? Смотрел в сторону NFS, rsync daemon, iSCSI, но у них у каждого свои недостатки…
rsync умеет синхронизировать только в одну сторону, csync2 в обе.
rsync сравнивает текущее фактическое состояние, csync2 дополнительно проверяет запомненное состояние на момент предыдущей синхронизации.
Поддержу IlyaEvseev, кроме того рекомендую использовать lsyncd версии >=2.1, потому как там перешли на fanotify. (который в отличие от inotify не требуешь вешать на каждую вложенную папку отдельный дескриптор, кроме того ядро может накапливать события на период перезапуска демона в том время как inotify эти данные потеряет).
да, так и хотел настроить но спрошу сначала: fanotify уже не глючит и нормально обрабатывает все события (перемещение, например)? читал много жалоб старых, интересно как дело обстоит сейчас. и можно ли ронять демон lsyncd надолго (допустим на полчаса) — всё ли он корректно обработает при запуске (теоретически — да :) )?
скорость к сожалению сейчас не могу замерить, но проблем не испытавали. А вот по файлам, точно ничего не было (мусора), сразу сказалось бы. Но, прошу учесть, как я писал выше, файлы не прямо мелкие совсем, в среднем по 15-20м