Сеть в данном случае не может не справляться: я напрямую включен в хост виртуальных машин гигабитным соединением. Да, условия целиком выполнены. Файрвол ради проверки вообще выключал полностью, думал с ним что-то не так.
Antony: простите, мне кажется, я вас не совсем понял. Как сервер на базе платформы Supermicro и процессора Xeon X5690 превратился в оборудование потребительского класса? Или вы имели в виду >зачастую потребительских SSD ? Если так, то эти риски закладываются изначально. Вопрос все же относился к устаревшим/eol процессорам, возможным узким местам их производительности (см. ориг. сообщение, пункт про пропускную способность RAM и QPI) и возможным проблемам совместимости с новыми версиями ОС. Касаемо возможного выхода из строя самого процессора -- такую возможность сходу я почему-то не учел, спасибо, сейчас попробую посчитать, насколько целесообразно данное предприятие при необходимости содержания запаса таких процессоров.
Как я уже выше отвечал Antony, в наших условиях избыточность и отказоустойчивость -- далеко не самый важное условие. Фактически, мы вполне можем выдержать до трех суток простоя без или с минимальными потерями для бизнеса. Единственный полностью задублированный и отказоустойчивый компонент -- наколенная "СХД" на базе супермикры, SSD & HDD различного калибра и tiered storage spaces, с которой к тому же ежедневно снимаются бекапы.
Все, что вы говорите, есть правильно и полезно, и я это понимаю. Но в реалиях белорусского бизнеса, а нашего -- особенно, HA & FT экономически нецелесообразны. Также нецелесообразно использование серверов Tier-1 вендоров: у нас все на Supermicro, сервера в угоду взаимозаменяемости унифицированы, вместо дорогостоящих массивов из 15k SAS дисков используются зеркала из довольно бюджетных, зачастую потребительских SSD, а IT-отдел обучен заранее закладывать в суммы закупки стоимость запасных блоков питания/вентиляторов и тщательно следить за "здоровьем" серверного аппаратного обеспечения.
Поэтому, по сути, для нас нет особой разницы в стоимости содержания устаревшего или Б/У серверного оборудования и нового. Вопрос по-большей части адресован именно возможным проблемам аппаратно-программной совместимости и отсутствия необходимого опыта для сравнения "нового VS старого" по производительности.
FloID1986: 4x2 TB ST2000DM001. Измерял iometr'ом, 4К random 30/70 read/write.
Конечно зависит от накопителей, но это все полемика. Под цели автора такая дисковая подсистема вполне сойдет. Под мои -- не особенно (на одну лишь сетевую шару шла нагрузка в районе 60 IOPS, остальные даже не смотрел). С радостью предоставил бы скриншоты perfmon'а, где у дисков очередь до 1000 доходила в промежуток 9:30-10:30, но этого сервера уже давно у нас нет.
Да, нашел. Tiered Storage Spaces + Hyper-v over SMB 3.0. Были закуплены двухпортовые Intel i350 адаптеры, трафик хранилища выведен в отдельные две сети. Благодаря SMB Multichannel получилось достичь полосы пропускания в 2 гбит/с. Неделя в пилоте, полет нормальный. Задержки возникают только в промежутке 9:00-9:30, когда все логинятся на терминальники, но задержки были и раньше.
P. S. Хосты Hyper-V в кластер объединены так и не были, т.к. необходимость высокодоступного SQL пропала. Но машину "реформ" и "инноваций" было уже не остановить...
Армянское Радио: 10 сетевых по гигабиту будут стоить соразмерно указанным выше адаптерам :) Плюс вполне возможен вариант перемещения этих сетевушек в боевые сервера, если результат понравится.
ivankomolin: так sudo наделяет правами суперпользователя, а su -- залогинивает вас под рутом, разве нет?
Когда-то была похожая проблема, делал следующим образом:
chown root:root %папка%
chmod 777 %папка%
rm -rf %папка%
Но это выглядит грязным решением + я дебил в никсах, поэтому есть возможность, что я фигню написал.
>"было очень лень" и "посоветовал искать новую материнскую плату" = очень профессионально ;-(
Девочка была противная, настроение было плохое, работы и без того было много. Тем более в итоге меня даже печеньками не отблагодарили.
>Так хотя бы при отказе rodc всё продолжит работу.
К счастью, ни в одном из них нечему прекратить работать в случае отказа RODC. По крайней мере, не за те пару часов, за которые кто-нибудь подвезет новый КД.
>site2site на границе
Это не совсем понял. Имеется в виду site2site на рутерах, смотрящих напрямую в интернет?