Изменил свой вопрос. Думаю так яснее будет. Готов конечно что всё в итоге упадет и разобьется поэтому хочу сначала взять модель по проще что бы научится на ней. Но фантомы новые мне не очень нравятся тем что там камера уже стоит, а мне она не нужна.
Да очень не нравится закрытость фантома..
По магазину это bhphotovideo?
У них блин 144$ доставка ко мне( но я думаю что найду на месте как и фантом нашел с наценкой буквально 20-30$ и без проблем с таможней.
А по квадрику я думаю syma x8 взять из за большего веса, очень сильный ветер я боюсь что syma x5 будет сносить..
И спасибо за наводку на 3DR вариант со своей камерой мне больше нравится)
Если кратко, то я должен сказать какой файл новее. Если много мелких файлов, это большая проблема. Можно просто сказать какую реплику считать верной для какой директории. С версии 3.3 там многое изменилось. В моем случае нужно будет создать изначально не одну большую директорию и класть туда все VM а много директорий. Это позволит быстро и точно определять ситуации сплит брейнов. К сожалению в расплеределнных системах присутсвуют такие проблемы. Но другой вариант это отказ от кластеризации. И резервное копирование по расписанию на другие ноды. Но тогда потерь данных явно не избежать .Чуть позднее мои коллеги соберут тестовый стенд для этого дела. Я просто хотел определится использовать ли proxmox + glusterFS , либо что то другое..
Пума Тайланд: Да верно. В этой ситуаци мне придется воспользоваться утилитами для разерешния этого конфликта. Это вообщем то проблемы всех подобных решений.
Пума Тайланд: в случае сплит-брейнда, прав тот кто новее. Т.е. новый файл перетирает старый. На сколько я вычитал из документации. Я скорее думал о скорости чтения-записи. Если гластер например состоит из одной ноды, и мы положим на него OpenVZ контейнер, будет ли он терять в производительности до 15%-20% по сравнению с тем же самым контейнером но лежащим на ext4, zfs или нет ? (утверждение выше взято с западных форумов).
Пума Тайланд: да не такое частое. На ровном месте ничего не происходит. У вас есть опыт использования GlusterFS ? Меня волнует только производительность. Настройка и мониторинг проблем не вызывает.
И насколько я понимаю при использовании реплик все что может пойти не так - это сплит брейны из за одинаковых файлов , либо обращения клиента к ноде которая не доступна.
Пума Тайланд: раздельные ноды тоже был такой вариант. Даже с бекапом на две остальные. Но все же не хочется если что вставать в 3 ночи и что то делать.. Мне под бекап дали отдельный стор , но он далеко. Ещё был вариант раздельные ноды с NFS хранилищем и бекап на эти же ноды. Одним словом бекап никто не отменял.
О данных: объем не велик. 1 гигабитной сети хватит для всех. Три ноды потому что высокая загрузка других ресурсов CPU и RAM. Получается что каждая нода нагружена на 40-50%. Т.е. при падении одной я получу 75% загрузки двух оставшихся, без учета пиков. Я бы рад иметь две ноды:) Одна нода под NFS ну или же ZFS over iSCSI я думал об этом, но она единичная точка оказа. И диски в серверах простаивать будут. В сервере только 2 посадочных места под HDD. Каков сценарий в вашем варианте в случае падения NFS ноды?