Всем привет.
Есть вопрос, что выбрать Proxmox vs oVirt ?
Инсталяция мягко говоря крохотная.
3 ноды + сторадж(iscsi или nfs или ClusterFS), виртуалок ну от силы штук 15.
Нужна онлайн миграция без простоя и подъем на другой ноде в случае падения текущей в общем HA.
Если oVirt, то эето будет hosted engine, но я наслышен, что oVirt не имеет смысла внедрять при микро инсталяциях, дофига прожерлив.
А вот про устройство Proxmox особо на русском инфы не нашел.
Что можете посоветовать ? Где почитать ?
dyasny: не такого формата предприятие !))
На телевидение особо считать нечего, в основном нужны вот такие хранилки scr.keikogi.ru/jidckii/1460022612833.png
Вообще мне больше интересно, что там у proxmox как устроено, но так как инфы не могу нарыть, скорее всего буду oVirt ставить...
dyasny: слушай, я сейчас инсталю hosted-engine, про бую установить engine с образа ovirt-live-el7-3.6.4.iso но что то не стартует.
Все вроде деплоится, в качестве стораджа iscsi, вроде все устанавливается, но после ребута пишет, что диск не обнаружен и соответственно виртуалка с engine не грузится. С чем такое может быть связанно ?
На сколько корректно вообще юзать эти ISO ? по сути даже бондинг не настроить....
jidckii: я бы забил на ovirt-live, и поставил все с обычного hosted-engine-setup. Если deploy проходит нормально, то надо смотреть в чем дело. Во первых прицеплен ли образ с LUN с iscsi, и открыт ли он на запись, во вторых как выглядит сам диск VM (libguestfs или через живой образ). Ну и заодно сразу написать в users@ovirt.org, там разработчики отвечают
[ INFO ] Stage: Setup validation
--== CONFIGURATION PREVIEW ==--
Bridge interface : enp2s0
Engine FQDN : ovirt-e1.otv.loc
Bridge name : ovirtmgmt
Host address : node2.otv.loc
SSH daemon port : 22
Firewall manager : iptables
Gateway address : 172.20.0.1
Host name for web application : hosted_engine_1
Host ID : 1
LUN ID : 36589cfc000000231bee6f631754b750f
Image size GB : 50
iSCSI Portal IP Address : 172.20.0.17
iSCSI Target Name : iqn.2015-11.loc.otv.frank-back:ovirt
GlusterFS Share Name : hosted_engine_glusterfs
iSCSI Portal port : 3260
GlusterFS Brick Provisioning : False
iSCSI Portal user :
Console type : vnc
Memory size MB : 4096
MAC address : 00:16:3e:26:18:0c
Boot type : cdrom
Number of CPUs : 2
ISO image (cdrom boot/cloud-init) : /tmp/CentOS-7-x86_64-Minimal-1511.iso
CPU Type : model_Westmere
Please confirm installation settings (Yes, No)[Yes]:
[ INFO ] Stage: Transaction setup
[ INFO ] Stage: Misc configuration
[ INFO ] Stage: Package installation
[ INFO ] Stage: Misc configuration
[ INFO ] Configuring libvirt
[ INFO ] Configuring VDSM
[ INFO ] Starting vdsmd
[ INFO ] Waiting for VDSM hardware info
[ INFO ] Configuring the management bridge
[ INFO ] Creating Volume Group
[ ERROR ] Error creating Volume Group: Failed to initialize physical device: ("['/dev/mapper/36589cfc000000231bee6f631754b750f']",)
The selected device is already used.
To create a vg on this device, you must use Force.
WARNING: This will destroy existing data on the device.
(Force, Abort)[Abort]?
я так понимаю он не смог разметить пространство на iscsi по этому диск позже и не создался.
Куда смотреть ?
jidckii: "The selected device is already used" LUN уже отформатирован. Можно выбрать "Force" или перед запуском самому его почистить dd if=/dev/zero of=/dev/mapper/36589cfc000000231bee6f631754b750f bs=512k count=20000
Вообще не понял о чем вы ?
Ну да и тот и другой используют QEMU/KVM в качестве гипервизора.
Что там ручного Вы у oVirt увидели, я хз )
Вопрос больше связан с пояснение работы Proxmox в качестве HA кластера.
Так, как это работает в oVirt я и так в курсе.
jidckii: ну с овиртом работал только в консоли, не так давно смотрел веб интерфейсы к нему как то все было убого, что проще в консоли.
ну у проксмокса был прекрасный опенвз у которого отлично работала горячая миграция, для квм не настраивал так что не скажу.