в mysql пользователя заводили как zabbix@localhost ? бывали случаи когда для mysql localhost и 127.0.0.1 это разные вещи
проверить можно разрешив пользователю подключаться с любого ип - заменить localhost на %
Сергей,
1 вы жаловались на скорость записи, и как аргумент указываете скорость чтения - это не рационально.
2 "нельзя просто так взять" (с) и померять скорость/производительность рейда цефа или чегото такого, почитайте например https://habr.com/ru/post/154235/
З.Ы. Дома на десктоп железе стоит проксмокс веряии 7.0-9 с ядром 5.4.65-1 там 5ый рейд(mdadm) с LVM thin из шести сата дисков WD1003FZEX, виртуалка с вин10, 2 ядра, 4гб памяти, хдд50гб виртио без кеша показала 160мб линейного чтения и 25мб линейной записи той же утилитой что вы скидывали,
З.З.Ы на будущее - обычно собрав какой угодно кластер перед эксплуатацией делается нагрузочное тестирование для проверки его возможностей и выявления проблем.
1 используя CEPH вы сами отказались от скорости тк как он про надеждность и масштабируемость.
2 если у вас LVM тонкий(thin) то тоже там большие проблемы со скоростью изза особеностей хранения метаданных
3 вы так и не ответили про утилизацию(нагрузку на диски) запустите iostat -x3 на гипервизоре и понаблюдайте пару минут
4 может у CEPH сейчас идет скраббинг и ему не до вас и вашей нагрузки ?
5 какая сеть используется для CEPH ? 1G? или 10G?
З.Ы, с виндовс виртуалками не работал только с линукс, для линукс наилучшую скорость из того что у вас есть вы бы получили из рейд 10 на 4 или 8 дисков, с фс ext4 или xfs, вмки хранить в qcow, драйвер виртИО
Добро пожаловать в новый дивный мир где нет гадалок и экстрансенсов, поэтому чтобы вам могли помочь вам придется дать больше информации:
1 какие диски стоят на серверах пркосмокс ? как они собраны в рейд ?
2 какая утилизация этих дисков ? (если кроме вебморды прокмокса у вас нет другова мониторинга: например заббикса то теперь будет очень сложно понять что произошло)
3 одна и таже скорость может давать разную нагрузку на диски, укажите как вы проверяли эту скорость ? какой был профиль нагрузки.
В случае с шаблоном "Template Module Linux block devices" флоу такой - заббикс получил с хоста файл /proc/diskstats (от заббикс агента на хосте) и с текущим таймстемпом заапдейтит все метрики которые из этого файла получаются.
Также есть альтернатива - можно использовать в скритпах zabbix_sender для пуша данных, там можно слать сразу много метрик и тоже таймстепм будет одинаковый.
Илья, Вас не смущает что при таком использовании ЦПУ там может быть столько реквестов в секунду что лог всех запросов может просто положить дисковую подсистему на сервере (если там хдд) ?
Включения лога всех запросов может быть банально опасно.
обычно .bashrc вычитывается один раз в момент когда у вас запускается шелл (в момент захода по ssh например, или при открытии терминала на локальной машине) принудительно перечитать можно вот так:
source ~/.bashrc
любая операция поиска в этой переменной будет искать в всех директориях начиная с первой, поэтому расположение в конце или в начале определит будет ли содержимое этой папки проверяться вначале или в конце.
Несовсем - облака нужно использовать тогда когда это имеет смысл, а именно вам нужна отказоустойчивость, масштбаирование или другой функционал недоступный или сложно реализуемый на выделенных серверах, ну и выделенный сервер частично обслуживать придется вам самим - как минимум мониторить износ дисков.
Kenny00, тогда вам необходимо переустанавливать ОС - так как сейчас похоже что файл mdcsrepair поврежден и неизвестно какие еще системные файлы повреждены.
Антон В., у разных типов(sata/sas/nvme) и моделей и производителей, могут быть разные счетчики/вывод информации (не пугайтесь если в моем примере ниже есть чтото чего у вас не будет), ознакомится можно при помощи команды smartctl -a /dev/sda (при необходимости подставить нужное устройство)
для обычных sata ssd я бы мониторил:
1 В шапке глобальный статус должен быть PASSED, пример:
SMART overall-health self-assessment test result: PASSED
2 Важные счетчики:
Reallocated_Event_Count
Retired_Block_Count
Reported_Uncorrect
*_Fail_Count
Также я бы погуглил документацию вашего производителя и модели ssd - обычно среди счетчиков есть показатель износа, но без документации его сложно правильно понять.
Kenny00, у вас происходит чтото совсем странное,
у вас часто падает с сегфолтом процес mdcsrepair который должен проверить и починить рейд массив, поэтому даже если проверка выполнилась то врядли корректно.
ОС стоит на этом же рейд массиве или отдельно ?
Kenny00, да правильно, но не потому что mdadm плохой, а потому что это не его задача ведь есть smartd, например прошивка диска может реалокейтить беды и для этого нужно мониторить счетчики смарта, а mdadm работает с абстрактными блочными устройствами (не обязательно физическими дисками, это могут быть например сетевые диски по iscsi, флешки), и он исключает диск из массива когда не смог прочитать или записать данные с конкретного жесткого диска.
по поводу крона - обычно в пакете mdadm идут дополнительные утилиты вроде checkarray или raid-check
(зависит от дистрибутива, нарпимер в центос 7 из коробки приезжает файл /etc/cron.d/raid-check) и можно запускать кроном их или команды что я привел выше. В случае с сбойным диском это спровоцирует исключение его из массива. Также важно мониторить /sys/block/mdХ/md/mismatch_cnt и само состояние массива (заббиксом, нагиосом, прометеусом, whatever)
Да малинка греется, как сильно - зависит от нагрузки, гдето достаточно приклеить теплопроводящим клеем радиатор, а гдето нужен и радиатор и корпус с вентилятором.
да, так как сейчас файлы ваших сайтов принадлежат одному и томуже системному пользователю, и взломав один сайт взломщик получает доступ ко всем вашим сайтам в этом аккаунте.
Иван Петров, первая строка System - обычно там будет чтото типа
Linux serverhostname 3.10.0-1160.21.1.el7.x86_64 #1 SMP Tue Mar 16 18:28:22 UTC 2021 x86_64
проверить можно разрешив пользователю подключаться с любого ип - заменить localhost на %