Андрей Бондаренко: Ну, тогда и бюджет промышленный будет - делайте на виртуалке или берите сервер с атомом, их есть. Например SuperMicro SYS-5015A-EHF-D525- порядка 30К рублей. Или сами соберите на интельной матери, обойдется в 15-20К.
Андрей Бондаренко: Вариантов несколько.
1) Научить Win2008R2 работать с vlan, затем попробовать евойным фаерволом проделать тоже самое. Фиговый вариант.
2) Разместить рядышком железку на атоме с линуксом и туда все прописать! Вариант офигенный!
3) Поднять виртуалку с линуксом, на порт которой привести все виланы и там разрулить. Вариант так себе.
4) Купить железку-роутер с прошивкой с линуксом или с поддержкой DDWRT. И там же отрулить. Вариант Вдвойне офигенен, так как можно найти железку за 2000-3000 рублей! Только сначала нужно свериться со списком поддерживаемых устройств.
Alex Wells: Ну, ну! Успехов! А что будете делать с 2048 кешами? А с 4096? Это атомов в видимой части вселенной не хватит для хранения всех значений кешей, надеюсь Вы в курсе...
Интересно, что за данные такие? Это же чтобы их заполнить понадобится 39861173208808608 лет при СРЕДНЕЙ скорости записи 800МБ/с
((95*111*10**29)/(800*1024*1024))/(60*60*24*365)
Упс... С виртуальными хостами не заморачивался. В основном nginx в виртуалке (linux) пользую, да и то на самом последнем этапе, когда проксирование делаю на приложения.
Дмитрий: Не настаиваю, толкьо перелить файлы нужно будет один раз, далее просто работаем сразу через S3 API, ручками их туда загонять не нужно. Ну и cephfs попробуйте, это просто распределенная файловая система.
SyavaSyava: Балабол, а то! В гугле забанили? Вот -
Вот - www.anandtech.com/show/8672/lenovo-thinkstation-p3...
Ну и по запросу "ddr3 single channel vs dual"
Еще раз, карты памяти для двухканального режима брать лучше вообще из одной партии, они обычно так и продаются - парами!
Блин, товарисчь, у меня на обслуживании несколько десятков серверов и около 800 компухтеров, я блин, эти тесты прогнал вдоль и поперек. Процессор и карточку ЛЕГЧЕ заменить через 2-3 года, чем найти планку памяти с нужными таймингами!!!
Первое, обязательно (!!!) ставьте под ceph выделенные ethernet-карты - это не так дорого. Соответственно в каждом сервере должно быть два адаптера как минимум, один для публичной сети, второй для ceph.
Да, можно использовать и /home/disk1 /home/disk2, только зачем? Потом сами запутаетесь, да и скрипты могут сбоить, вы же все равно эти диски под ceph отдадите.
Третье - с файлами напрямую работать не получится - это не файловая система! Работать придется через API S3 (или swift), ну или ставить дополнительно cephfs (я его не тестировал). Файлы придется заливать вручную, написав соответствующий скрипт. В вашем случае - рассматривайте ceph как распределенную базу данных с с доступом к объектам (файлам) через S3/Swift.
Что делает ceph, он копирует куски объекта (файла) на несколько серверов (обычно два или три), соответственно файл будет "размазан" по нескольким серверам в нескольких копиях. При обращении к объекту, его куски будут тянуться с нескольких серверов одновременно, при этом, так как объект лежит в нескольких копиях, то можно просто выключить один сервер - это ни на что не повлияет.
Есть еще cehfs, но мы ее не пользуем, может быть на видео она покажет хорошую производительность, тогда не придется вообще заморачиваться, подмонтировал раздел cephfs, и просто работаешь с файлами.
Дмитрий: В общем случае будет распределенное пространство из всех дисков (тех, которые выделили под ceph) всех серверов с failover, резервированием, автоматическим восстановлением и разными плюшками типа снапшотов. Дополнительно можно ceph rdb использовать как пространство для дисков виртуалок через libvirt например.
Дмитрий: Все достаточно просто, разворачиваем ceph на нескольких серверах с выделенными дисками (очень желательно) и выделенной сетевухой для ceph (очень очень желательно), устанавливаем на каждом сервере (можно на одном, двух трех, далее везде) radosgw (гейтвей для S3), в DNS (для roundrobin) заносим все сервера с radosgw, работаем с данными через любого REST клиента S3! Данные между серверами сами распределяются либо автоматически, либо как настроишь. У меня 100 терабайт кластер ceph (6 серверов и две полки), правда radosgw не пользуем, но пробовали и тестировали.
Да, диски ставить не обязательно, флешки будет достаточно.