Первое, обязательно (!!!) ставьте под ceph выделенные ethernet-карты - это не так дорого. Соответственно в каждом сервере должно быть два адаптера как минимум, один для публичной сети, второй для ceph.
Да, можно использовать и /home/disk1 /home/disk2, только зачем? Потом сами запутаетесь, да и скрипты могут сбоить, вы же все равно эти диски под ceph отдадите.
Третье - с файлами напрямую работать не получится - это не файловая система! Работать придется через API S3 (или swift), ну или ставить дополнительно cephfs (я его не тестировал). Файлы придется заливать вручную, написав соответствующий скрипт. В вашем случае - рассматривайте ceph как распределенную базу данных с с доступом к объектам (файлам) через S3/Swift.
Что делает ceph, он копирует куски объекта (файла) на несколько серверов (обычно два или три), соответственно файл будет "размазан" по нескольким серверам в нескольких копиях. При обращении к объекту, его куски будут тянуться с нескольких серверов одновременно, при этом, так как объект лежит в нескольких копиях, то можно просто выключить один сервер - это ни на что не повлияет.
Есть еще cehfs, но мы ее не пользуем, может быть на видео она покажет хорошую производительность, тогда не придется вообще заморачиваться, подмонтировал раздел cephfs, и просто работаешь с файлами.
Дмитрий: В общем случае будет распределенное пространство из всех дисков (тех, которые выделили под ceph) всех серверов с failover, резервированием, автоматическим восстановлением и разными плюшками типа снапшотов. Дополнительно можно ceph rdb использовать как пространство для дисков виртуалок через libvirt например.
Дмитрий: Все достаточно просто, разворачиваем ceph на нескольких серверах с выделенными дисками (очень желательно) и выделенной сетевухой для ceph (очень очень желательно), устанавливаем на каждом сервере (можно на одном, двух трех, далее везде) radosgw (гейтвей для S3), в DNS (для roundrobin) заносим все сервера с radosgw, работаем с данными через любого REST клиента S3! Данные между серверами сами распределяются либо автоматически, либо как настроишь. У меня 100 терабайт кластер ceph (6 серверов и две полки), правда radosgw не пользуем, но пробовали и тестировали.
А для чего такая возня с файлами? Может быть просто поставить распределенное хранилище типа S3 , например на базе ceph? Как раз при добавлении сервера добавится и общей емкости, да и настраивать где какие пулы лежат, можно очень гибко.
Разница в тяжелых приложениях заметна почти на 70%, о DMA и одновременном обращении к памяти процессора, периферии и видеокарточки, похоже никто и не слышал? Докупить потом не получится, так как не попадете в нужные тайминги. Так что лучше пожертвовать процессором или картой, их-то уж гораздо легче поменять. Две по 8 гораздо лучше, а еще лучше 4 по 8 или даже (если материнка держит), то и 6 по 8 (в трехканальном режиме).
Но больше дискутировать не буду. Хотите - берите одну планку.
А вот еще, сидишь, где нибудь в казахской степи с модемным доступом, а в целевой системе, старой как говно мамонта, даже компилятора нет! Здесь соберешь все статикой и вперед, в помойку, так сказать.
nirvimel: О! Спасибо, буду знать, если gevent пользовать буду. Илья Кметь Данные пишите в базу. например в mongo или redis или что там у вас. они же для этого и предназначены. Я вот с elasticsearch разбираюсь, если поиск по выборкам делать - самое оно!
Да, проверять точно не буду, так как к нему тогда монитор тащить с клавой, да и работаю я за ним, выключать не хочу. Он и так уже "18:25:20 up 84 days, 2:55, 2 users, load average: 0.00, 0.01, 0.05"
Владимир Новицкий: Ну, конкретно на этом компе не проверял (можно, я не буду этого делать?), но очень часто именно так и бывает, поставил неправильно - не работает.
Собственно, да, желательно покупать память с точными таймингами спецификации. Ну и договариваться с продавцами на возможность возврата.
На домашнем iMac (кажется 2011) я установил как раз corsair value selected (но не под мак!!!). Проблема с перезагрузками возникла сразу, так как я добавил память 2 по 8, к 2 по 2. Когда вытащил две оригинальные планки по 2Гб, все стало устойчиво. Тоже самое было и с ноутбуком старым (с которого картинка и на котором пишу), также оригинальная память не заработала совместно добавленной на macmini 2006. Да, на ноуте этом стоит что-то типа самсунга, по таймингам совпадает, но у меня работа такая, что есть доступ к разной памяти. Планки заработали сразу.
В общем.
1) Договаривайтесь о возврате (я еще ни разу не возвращал)
2) Используйте проверенную память - с ней все нормально, читайте отзывы или покупайте проверенную производителей
3) Не добавляйте к оригинальной, меняйте полностью!!!!
4) Читайте спецификации в интернете от энтузиастов и четко следуйте спецификациям на тайминги и частоту памяти!
Мне предстоит еще обновить свой macbook pro 2012, но там 8гб и мне пока хватает. И там память точно не оригинал, так как брал его серым. Но я его еще не вскрывал :-) SSD лежит, осталось салазки купить под DVD.
Да, можно использовать и /home/disk1 /home/disk2, только зачем? Потом сами запутаетесь, да и скрипты могут сбоить, вы же все равно эти диски под ceph отдадите.
Третье - с файлами напрямую работать не получится - это не файловая система! Работать придется через API S3 (или swift), ну или ставить дополнительно cephfs (я его не тестировал). Файлы придется заливать вручную, написав соответствующий скрипт. В вашем случае - рассматривайте ceph как распределенную базу данных с с доступом к объектам (файлам) через S3/Swift.
Что делает ceph, он копирует куски объекта (файла) на несколько серверов (обычно два или три), соответственно файл будет "размазан" по нескольким серверам в нескольких копиях. При обращении к объекту, его куски будут тянуться с нескольких серверов одновременно, при этом, так как объект лежит в нескольких копиях, то можно просто выключить один сервер - это ни на что не повлияет.
Есть еще cehfs, но мы ее не пользуем, может быть на видео она покажет хорошую производительность, тогда не придется вообще заморачиваться, подмонтировал раздел cephfs, и просто работаешь с файлами.