В конкретно моей ситуации есть виртуалка с Postgresql, которая в ближайшее время собирается перенестись на железо. Планирую поступить так: на виртуалке разрешить потоковую репликацию, через pg_basebackup stream затянуть данные на железный сервер. После того как будет проверено, что данные консистентны и доступны - погасить виртуалку. Проблема в том, что на виртуалке свободно около 28Gb (базы весят в сумме около 90Gb) и нужно настроить репликацию так, чтобы свободное место не съелось за ближайшие несколько дней.
Vladimir Zhurkin, seabios уже стоит, работает. В установленной на eMMC GalliumOS только одно устройство /dev/mmcblk с двумя (/boor и /) партициями на нем. Так что единственная загвоздка в том, чтобы Gentoo на стадии установки увидела это самое /dev/mmcblk - в дальнейшем я просто соберу ядро с поддержкой eMMC.
Vladimir Zhurkin, у меня на этом буке нативно (не через chroot) установлена GalliumOS (форк убунты). Она работает с eMMC через модуль mmc_block. Загружаю ядро вот так: gentoo doload=mmc_block - в lsmod | grep mmc этого модуля нет. После выполнения modprobe mmc_block модуль появился, но mmc по-прежнему не видна. Может быть, после ручной загрузки модуля нужно как-то обновить список устройств? udevadm trigger не помогает.
mysql> SET max_allowed_packet=256*1024*1024;
ERROR 1621 (HY000): SESSION variable 'max_allowed_packet' is read-only. Use SET GLOBAL to assign the value
chupasaurus, разобрался. Питона не было не машине, где я запускал ceph-deploy, а на машине КУДА я его деплоил. Кстати, странно - раньше все что нужно для работы CEPH ставилось автоматически.
Александр, сначала в марте побилась система на одной виртуалке. В июле помер один диск в полке и один из двух рейд-контроллеров - заменили и то и другое, все было хорошо. А пару недель назад началось: побилась (невосстановимо) та же виртуалка, что и в марте, плюс восстановимо дважды побилась одна прежде здоровая виртуалка, и ещё одна, так же восстановимо.
Александр, читал, тоже рассматривал такой вариант, но виртуалки бьются на разных нодах Proxmox, общим элементов которых является СХД. Но все три ноды и полка утверждают, что "все хорошо, прекрасная маркиза". А СХД достаточно точно мониторит свое состояние, когда один из дисков летом захворал, она сразу же начала кидать warning'и.
Починил уменьшением числа innodb_buffer_pool_instances с 64 до 32. Так же уменьшил число innodb_page_cleaners до 32. innodb_lru_scan_depth оставил равным 256.
Эти параметры не являются общими для всех, подбирайте их индивидуально. Число innodb_page_cleaners может быть равным или меньше, чем innodb_buffer_pool_instances, но не больше.
Melkij: CEPH кластер. В системе 12 HDD, для каждого из них нужен свой раздел под журнал. А на RAID1 эти журналы будут жить потому, что выход из строя одного SSD вне массива приведет к недоступности связанных с ним OSD.
/dev/md1 никуда не примонтирован - я так понимаю, его нужно просто удалить.
Далее как нужно поступить - на каждом SSD создать по 12 17-гиговых разделов, потом из этих разделов нужно создать 12 зеркал через mdadm - я верно понимаю порядок действий?