• Как пробросить порт в freebsd?

    athacker
    @athacker
    Сергей: Ну во-первых, если всё правильно сделать, то ничего не похерится, а во-вторых -- вот для подобных случаев и придуманы бэкапы ;-)
  • Как пробросить порт в freebsd?

    athacker
    @athacker
    Сергей: У вас, очевидно, очень старая фря: skeletor.org.ua/?p=4288

    Пора обновиться до 9.3 как минимум. А лучше до 10.1 :-)
  • Как установить windows server 2012 r2 на HP DL380e Gen8?

    athacker
    @athacker
    Sargulov: Да, если это не прокатывает, то скорее всего, проблема аппаратная.
  • Как запретить удаление конкретного файла на Windows?

    athacker
    @athacker
    Правой кнопко мыши по файлу, "Свойства", вкладка "Безопасность".
  • Как отслеживать температуру на хосте с ESXI?

    athacker
    @athacker
    alovanton: товарищ, IPMI требует аппаратной поддержки. Если у вас самосборный сервер, да ещё на десктопном железе, IPMI там не будет.
  • Как отслеживать температуру на хосте с ESXI?

    athacker
    @athacker
    alovanton: ну тогда, скорее всего, никак. Если ESX не показывает температуру, значит, не может прочитать те датчики, которые в системе есть. А значит, ему ничего не поможет.
  • Как правильно перевести всю инфраструктуру на виртуализацию?

    athacker
    @athacker
    ХЗ, у нас тестовый кластер висит на iSCSI-лунах (хранилищем выступает FreeBSD), пока нигде диски не отвалились. Сейчас там около 20 машин, недавно было более 50. Правда, на хранилке адаптеры 10 гигабит. Но на хостах по 2 по 1 гигабиту.

    Недавно делали тесты, подключали iSCSI LUN по чистому 1-гигабитному линку и несколько суток гоняли разные тесты с помощью IOmeter (выбирали дисковую конфигурацию на хранилище, обеспечивающую максимальную производительность). Ничего не чихнуло даже. Возможно, рассказы про "пропуск пинга" несколько преувеличены? :-)
  • Как правильно перевести всю инфраструктуру на виртуализацию?

    athacker
    @athacker
    DastiX:
    >равнозначно ли, Ваше утверждение "кластер без СХД" утверждению
    > "кластер без общего хранлища"?

    Разумеется, нет. Под СХД я имел в виду промышленно-изготовленную систему хранения данных. Общее же хранилище может быть чем угодно -- самосборным сервером с предоставлением лунов по iSCSI, виндовой шарой (в случае с Hyper-V), или, например, таким костылём, как VSAN у VMware. Если первый вариант условно и с большой натяжкой ещё можно отнести к СХД, то второй и третий уж точно нет.
  • Как правильно перевести всю инфраструктуру на виртуализацию?

    athacker
    @athacker
    Василий Печерский: а как у всей этой красоты обстоят дела с подключением USB-принтеров или таких же сканеров? Можно физически подключенный к тонкому клиенту USB-девайс использовать на виртуальной рабочей станции? Не придётся ли при переходе на VDI менять USB-оборудование на сетевое?
  • Как правильно перевести всю инфраструктуру на виртуализацию?

    athacker
    @athacker
    DastiX: Сегодня три машины -- завтра уже 30. У автора несколько сервисов на одном сервере, причём как он сам говорит, часть из этих сервисов работает на железе, "собранном на коленке". Вполне резонное желание всё это виртуализовать, тем более при наличии однотипных пролиантов.

    Я ХЗ, что тут нужно расшифровывать. Прочитайте ещё раз -- для организации кластера СХД не нужна. Кластер виртуализации будет работать без всяких СХД. Что конкретно в этом утверждении вам непонятно?
  • Как правильно перевести всю инфраструктуру на виртуализацию?

    athacker
    @athacker
    DastiX: Вы действительно считаете, что если вы не в состоянии обеспечить кластер дисками server-class, то это означает, то вы не можете виртуализовать контроллеры домена? Я думал, всем очевидно, что лучше быть богатым и здоровым, чем бедным и больным, и лучше покупать брендовое железо с многолетними сервисными контактами, нежели ставить самосбор, который будет обслуживаться своими силами. Но суровая реальность диктует другие подходы.

    > Но по своему опыту скажу, что четыре 1Gb линка в NicTeaming не дают
    > скорости необходимой для комфортной работы более 8 виртуальных
    > машин на кластере (DC, Exchange, 2003, win7 и т.д.). Одни тормоза.

    Тогда я скажу, что у вас очень специфический опыт. Контроллер домена в сети из 300 машин, реальных и виртуальных, практически ничем не занимается. Дисковая нагрузка у него никакая. Exchange -- да, может потреблять очень много. Его можно повесить на отдельный LUN с отдельным интерфейсов. 120 Мб/сек -- вполне достаточно. Однако, автор не упоминал, что у него в сети есть Exchange. Win7 же выживет на гигабитном iSCSI линке совершенно спокойно. Вот прямо сейчас у меня на гигабитном iSCSI висит шлюз на фре, контроллер домена, сервер SCVMM, виртуалка с Win8 для управления и WSUS. Параллельно ставится Win2012 R2 на ещё одной виртуальной машине в прямом эфире, т. е. вот прямо сейчас. И никаких тормозов я не замечаю.

    > и снова повторю свой вопрос: каким образом будет достигаться
    > отказоустойчивость, при отсутствии СХД в кластере?

    Вы правда считаете, что без СХД невозможно добиться отказоустойчивости? Отказоустойчивости на каком уровне вы не можете добиться без СХД?
  • Как правильно перевести всю инфраструктуру на виртуализацию?

    athacker
    @athacker
    DastiX: 1) Кластер нужен для обеспечения отказоустойчивости виртуальной инфраструктуры и распределения нагрузки. Кластер гарантирует сохранение функционирования ВМ в случае отказа одного из хостов виртуализации.

    2) Я не знаю, что вы такое читали, но вот в этом документе ничего такого особо специфичного Micrisoft для виртуальных контроллеров домена не требует. Это обычные требования обеспечения безопасности и отказоустойчивости. В принципе, они очевидны и диктуются здравым смыслом, для этого не нужно даже читать подобные рекомендации.

    3) Привязка СХД (условной) к кластеру может делаться хоть на 100Мбит, если такая производительность достаточна. Выводить с потолка 10 Гбит -- это... Ну в общем, эта цифра взята с потолка :-) Вероятнее всего, автору хватит и нескольких гигабитных линков, достаточно только грамотно распределить между ними нагрузку.

    4) ХЗ, где вы взяли такие цены на 10гиговые адаптеры. Можно купить от 20 до 60 тысяч за штуку (вот QLogic, например).

    5) А вы правда считаете, что сам факт наличия СХД в сети уже обеспечивает отказоустойчивость? :-) Это восхитительно... :-)

    Подводя итог: СХД в данном случае -- деньги на ветер. Дешевле и выгоднее будет выдернуть все диски из хостов виртуализации, и воткнуть их в самосборный сервер. На который поставить несколько многопортовых сетевых гигабитных адаптеров. Либо, как вариант, из перечисленных трёх серверов два оставить как хосты виртуализации, и один -- как хранилище.

    Резервирование обеспечивается следующим образом -- минимум 4 сетевых порта в каждом из серверов (и в хранилке, и в хостах). Ну, в DL360eG8 это и так обеспечено, там по 4 сетёвки + iLO. Порты разводятся попарно в два коммутатора. Порты на хосте делятся по функционалу -- два порта на сетевой трафик гипервизора и виртуальных машин, и два порта -- на iSCSI.

    Порты хранилки также разводятся в 2 коммутатора попарно.

    Таким образом, у нас дублируется всё, кроме самой хранилки -- два хоста, по два адаптера на каждый путь (сетевой трафик виртуалок+iSCSI). При выпадении хранилки мы теряем виртуальную инфраструктуру. Какая бы это хранилка не была, хоть дешёвый QNAP, хоть дорогущий Violin Memory, это будет единой точкой отказа. Конечно, в целом СХД будет надёжнее, но её стоимость + стоимость поддержки -- это будет стоить совсем недетских денег. И счёт будет идти не на сотни тысяч рублей, а на миллионы. Если фирма считает, что её данные всяко дороже, и готова (и МОЖЕТ) пойти на покупку полноценной СХД -- это одно. А когда речь идёт о QNAP в роли СХД... То тут однозначно лучше самосбор.

    Ну и я не знаю, что за сложности у вас с организацией кластера на Hyper-V. Делал это через MSCS, и SCVMM -- никаких проблем не встретил. Что за трудности у вас были?
  • Как правильно перевести всю инфраструктуру на виртуализацию?

    athacker
    @athacker
    DastiX: Ну, вы не правы. Причём дважды :-) Кластер нужно делать обязательно, это раз. Во-вторый, СХД совсем не обязательно нужна для организации кластера. И в третьих -- на винде кластер соорудить ничуть не сложнее, чем на VMware.
  • Как решить проблему с запуском Supermicro?

    athacker
    @athacker
    Сергей: Если у человека там был RAID, а он сбросил настройки в дефолтные, то на выходе мы получаем... :-)
  • Как правильно перевести всю инфраструктуру на виртуализацию?

    athacker
    @athacker
    Сергей Мещеряков: Не забывайте ещё про перенос FSMO ;-) А то вы отключите старый, потом придётся волосы на разных местах себе рвать :-)
  • Как отлавливать остановку процесса?

    athacker
    @athacker
    l2p: имя пользователя мало сменить, нужно заходить другим пользователем, и у этого пользователя не должно быть прав админа. Зашёл обычным юзером -- и если что-то административное нужно сделать, то используется sudo.
  • Как узнать, что блокирует 53 порт?

    athacker
    @athacker
    Roman Makarov: Пинганите вот эти адреса: 193.105.59.2, 193.105.59.6. Они доступны?

    Я так понял, у вас там маршрутизатор. Пробовали напрямую подключаться, без маршрутизатора? Доступ по управлению на маршрутизатор у вас есть?