Задать вопрос
Ответы пользователя по тегу Виртуализация
  • Может ли вирус выйти из виртуальной машины?

    athacker
    @athacker
    Может. Это не очень просто, но реализуемо: https://www.techrepublic.com/article/10-new-vm-esc...
    Ответ написан
    Комментировать
  • Как необходимо настроить сеть для переведения WiFi-карты в Monitor Mode из виртуальной машины?

    athacker
    @athacker
    Зависит от гипервизора. ESXi умеет прокидывать устройство напрямую в виртуалку, тогда виртуалка им может пользоваться в полном объёме, включая monitor mode, если ваша WiFi-карта это умеет. Ну и разумеется, в хост-системе должно быть как минимум две карты -- одна для управления гипервизором, а вторая -- для прямого проброса внутрь ВМ. Единственную сетевуху, понятное дело, гипервизор пробросить не даст.
    Ответ написан
  • Можно ли создать контейнеры для программ в которых они будут крутится не виртуализацией?

    athacker
    @athacker
    Есть бытовые песочницы, например, Sandboxie. Виртулизируют вызовы IPC, обращения к веткам реестра и к файловой системе (здесь под виртуализацией следует понимать просто перенаправление вызовов к соответствующим ресурсам на некие их заменители, которые лежат совсем не там, где программа думает). Вообще используется для запуска не-доверенных приложений, но возможно, для вашего кейса тоже подойдёт, попробуйте.

    Ну и скоро в Win10 появится своя встроенная песочница, так что можно будет там покрутить.

    А, ну и касаемо конкретно Яндекс-Диска. Насколько я помню, Я.Диск можно юзать через WebDAV. Винда умеет монтировать Web-DAV ресурсы как сетевые диски. Так что можно разные Я.Диски смонтировать в разные сетевые диски, и использовать одновременно.
    Ответ написан
    1 комментарий
  • Стоит ли полностью перейти на виртуальные машины в контексте "домашнего пользователя"?

    athacker
    @athacker
    Ну это вопрос того, сколько времени вы готовы тратить на обслуживание этого парка :-) Каждая система будет использовать ресурсы ноута, т. е. их придётся делить фактически между несколькими ОС. Плюс свои наборы софта, свои процедуры по обслуживанию (установка обновлений, например), плюс обслужвание хостовой ОС. Если возиться не лень, или есть возможность всё это автоматизировать -- ну, можно и несколько систем поставить. И бэкапить одну машину всяко проще, чем пачку виртуалок, да ещё, возможно, с разными ОС внутри.

    Если это ради безопасности -- я бы посмотрел в сторону песочниц. Сам использую, например, Sandboxie.
    Ответ написан
    Комментировать
  • Вывод esxi хостов в отдельный VLAN, нужно ли?

    athacker
    @athacker
    Во-первых, VLAN -- он по определнию не физический :-) Как вы понимаете, название "VIRTUAL LAN" нам как бы об этом намекает :-) Физический канал всё равно делится поровну между клиентами, независимо от того, есть у вас деление на вланы или нет.

    Во-вторых, Ваш коллега отчасти прав. Но только отчасти. Сегментация сети действительно даёт больше возможностей контроля, и да, стоит разделить сеть на вланы. Причём не только гипервизоры вынести в отдельный VLAN, а вообще сети разделить. Чтобы управление vSphere -- в одном влане, storage-трафик -- в другом, трафик виртуальных машин -- в отдельных VLAN'ах. у вас же виртуалки не одной задачей занимаются, а разными? Соответственно, их нужно сгруппировать и рассадить по вланам. Веб-сервера -- одна сеть, бухгалтерские сервера с 1С -- в другой сети, контроллеры домена -- в третьей. И контроль на на маршрутизатор, чтобы с веб-серверов, доступных через интернет, нельзя было зайти на сервер бухгалтерии, равно как и наоборот.

    Клиентов тоже поделить по группам/отделам, и каждый отдел -- в свой VLAN. С раздачей прав доступа, кому куда можно, а куда нельзя.

    В идеале, сеть должна быть как можно сильнее сегментирована, и должен быть запрещён любой доступ между хостами, кроме явным образом разрешённого. Есть даже такой термин -- микросегментация. Там хосты даже в рамках одного влана могут друг с другом общаться только по явным образом разрешённым протоколам и портам, а вся остальная коммуникация между ниим запрещена. Но микросегментация -- это не ваша история, это всё реализуется решениями типа VMware NSX или Cisco ACI, т. е. это уже для больших дядек.

    Да, и файрвол ESXi можно настроить, но лучше пользоваться более подходящими средствами для этого -- файрволами на маршрутизаторах. Т. е. делим сеть на подсети с помощью вланов и маршрутизации, и настраиваем правила хождения трафика между подсетями файрволом на маршрутизаторе.
    Ответ написан
    3 комментария
  • Что необходимо для поднятия сервера с виртуальными серверами?

    athacker
    @athacker
    Обратитесь к специалистам. Судя по вопросу, уровень владения сетевыми технологиями у вас недостаточен, чтобы делать подобные вещи. Очень сильно недостаточен.
    Ответ написан
    1 комментарий
  • Б\у сервер или мощный ПК?

    athacker
    @athacker
    Alex, серверное железо и его использование -- это своя, определённая специфика. Сервер не ушатан, но процы старые, и не очень многоядерные (если речь про тот, который по вашей ссылке, на авито). Не исключено, что у него может использоваться только ECC REG память, а её ещё придётся поискать, если вдруг потребуется заменить или докинуть оперативы. Ну и коллеги правильно заметили -- шум там будет стоять порядочный, т. к. компоновка в серверах 1U плотная, и с охлаждением туговато. Компенсируется это увеличением тяги вентиляторов. На радиаторах CPU там кулеров нет, поэтому ставится гребёнка кулеров, которые охлаждают сразу всё, протягивая воздух от передней до задней панели через всю электронику, плюс есть кулеры в блоках питания.

    Это, кстати, момент, который нужно особо в серверах проверить. Процы и память, которые заработают в серверной материнке, найти проще. А вот кулеры, как правило, строго специфичны для конкретной модели. Поэтому их наличие, количество и работоспособность нужно проверять при покупке зело тщательно.

    Ну и в целом, ответ на ваш вопрос будет зависеть от того, что именно вы собираетесь делать на виртуалках. Если обычные лабы -- домен там, почту, инфраструктурные сетевые сервисы и т. п. -- это одно. А если какие-то жрущие Java-приложения с высокой нагрузкой или десятки виртуалок -- это совсем другое. Под второй профиль использования лучше сервак, конечно. А для первого хватит и десктопа. К тому же, десктоп всегда можно перепрофилировать под рабочий комп, или продать, если появится такое желание. А старый сервер сбыть будет куда сложнее.
    Ответ написан
    Комментировать
  • Кто пользуется VEEAM Backup?

    athacker
    @athacker
    Не очень понятно, зачем отдельно бэкапить сетевую папку, если вы бэкапите всю виртуалку целиком.
    Ответ написан
    2 комментария
  • Как правильно поставить виртуальный сервер?

    athacker
    @athacker
    Если у вас винда, то проще поставить роль Hyper-V. Это гипервизор Microsoft, доступен в десктопной винде начиная с Windows 8.
    Ответ написан
    3 комментария
  • Какие диски выбрать для хоста виртуальных машин?

    athacker
    @athacker
    Чем больше в рейде шпинделей -- тем выше производительность RAID'a.
    Ответ написан
    Комментировать
  • Перенос сервера на виртуальную машину, как лучше?

    athacker
    @athacker
    В вашем случае лучший способ -- это развернуть виртуальную машину, установить туда ОС и нужный софт, а потом перенести данные с физической машины. В противном случае возможны весьма разнообразные артефакты. Как в процессе переноса, так и в последующей работе такой виртуалки.
    Ответ написан
    5 комментариев
  • Как поднять сервер в небольшой организации?

    athacker
    @athacker
    Умные люди говорят: "Если есть возможность проложить провод -- тяните провод, не надейтесь на WiFi". WiFi в рабочей сети, да ещё там, где "Большинство пользователей имеют дело с графикой и видео, объемы большие" -- это источник постоянной головной боли.

    Одного сервера всегда мало. Потому что будут проблемы с его обслуживанием -- нужно будет тормозить производственный процесс, либо работать во внеурочное время. И если сервер сбойнёт, то вся работа встанет колом.

    А поскольку вы упоминаете гипервизор, то с гипервизорами всё ещё хуже -- нужно минимум три сервера в кластере, для обеспечения отказоустойчивости. Если это винда, то ещё потребуется Micrisift Storage Spaces Direct для организации распределённого отказоустойчивого хранилища. Либо другие технологии, типа DataCore, vSAN, ScaleIO, Ceph -- любые распределённые софтверные системы хранения.

    Насчёт выбора железок -- будет зависеть от бюджета. Брэндовое железо стоит дороже, но меньше гемора в эксплуатации, и есть вменяемая поддержка. Не-брэндовое стоит дешевле, но больше вероятность сбоев, и поддержка попроще. Из вменяемых брендов вне "большой четвёрки" могу порекомендовать STSS. Собирают сервера на платформе SuperMicro, и достаточно вменяемы по части общения. Поддержка, есть, но для разборок придётся везти железку к ним в офис.

    Какой выбирать гипервизор -- также зависит от бюджета. Есть деньги -- выбирайте VMware или Hyper-V с обвязкой (vCenter или SC VMM). Нет денег -- ставьте KVM, ProxMox CE или Nutanix CE.

    HelpDesk системы -- тысячи их. iTop, vsDesk, GPLI, OTRS, YouTrack (он не совсем для этого, но легко заточить).

    А начинать нужно с базовых вещей -- с организации сети, электропитания на рабочих местах, выделения помещения под серверную. Качественный монтаж и планирование сети, тщательный выбор и тестирование оборудования -- избавляет впоследствии от множества проблем в процессе эксплуатации.
    Ответ написан
  • Выбор платформы виртуализации?

    athacker
    @athacker
    Кластер из двух серверов не получится. Нужно минимум три -- один из серверов будет общим хранилищем для двух остальных. Это независимо от платформы виртуализации.

    Что касается лицензий -- у VMware есть пакеты типа vSphere Essential, они стоят не так дорого, как если брать просто vSphere. Essential Plus покрывает три сервера и один vCenter, стоит около 250-300 тысяч рублей.

    Но один сервер под общим хранилищем -- этого мало, так как он становится единой точка отказа (сдохнет -- и полягут ВСЕ виртуалки). Поэтому самым правильным вариантом решения будет конвергентная инфраструктура -- когда сервера виртуализации также презентуют свои локальные диски в какой-то из вариантов software defined storage. Среди вариантов: Ceph (бесплатный, но капризен, и для поддержки нужны нефиговые такие скиллы), VMware vSAN (стоит нефигово) или ScaleIO (тоже стоит порядком, но до 12 Тб сырого места можно юзать совсем бесплатно. В варианте из трёх узлов в кластере ScaleIO 12 Тб сырого места -- это 4 Тб полезного места. При росте числа узлов оверхед будет снижаться. Например, 12 Тб сырого места на 5 серверах уже обеспечит 5 Тб полезного места).

    Так что всё зависит от бюджета. Тут всё как везде -- баланс между стоимостью и лёгкостью развёртывания/эксплуатации. Вложите больше денег -- получите решение, которое проще развернуть, проще эксплуатировать и есть саппорт. Вложите меньше -- надо будет юзать опенсорс, больше времени заложить на пилот, и зачастую самому разбираться с прибабахами, строча сообщения на форумах и гугля с космической скоростью :-)

    Ну и, собственно, игроков на рынке виртуализации не так уж чтобы до фига. Microsoft Hyper-V, VMware ESXi, KVM. Proxmox -- это не вполне система виртуализации, это оркестратор для управления виртуальной инфраструктурой. Непосредственно виртуализацией занимается всё равно KVM (или LXC, но это вам не нужно).
    Ответ написан
    1 комментарий
  • Какие основные отличия технологии виртуализации от технологий облачных вычислений?

    athacker
    @athacker
    В основе облака лежит виртуализация, да. Но само по себе облако -- это целый комплекс технических, программных, организационных мер. Позволяющих гибко управлять инфраструктурой, выделять клиентам мощности, лимитировать эти мощности, обеспечивать автоматическое или автоматизированное масштабирование этих лимитов, обеспечивать надёжность и бесперебойность сервисов.
    Ответ написан
    Комментировать
  • Какое решение выбрать для создания бюджетного отказоустойчивого кластера?

    athacker
    @athacker
    Для ScaleIO нужно минимум 3 хоста, иначе не взлетит. Если не рассматриваете софт, так сказать, "флибустьер эдишн", то 10k$ вам не хватит. Железо можно, например, такое, в количестве от трёх штук:

    stss.ru/products/servers/T-series/TX111.4-004LH.html

    В комплекте с 32 гигами памяти, 4-х ядерным HT процом и 4 x 300 Gb SAS 10k RPM винтами за один сервера штука получается 172 тысячи рублы. В сумме, соответственно, около 510 тысяч. Вот и все ваши 10k$.

    Но на этом уже можно разворачивать ScaleIO. Если три сервера будут именно в такой конфигурации, как я выше написал, то с 3-х хостов получите 1.2 Тб пространства. Негусто, но зато это реально конвергентное отказоустойчивое решение, с возможностью вывода из эксплуатации любого хоста (но только одного).

    Ну и это прайсовая цена STSS-а, если долго плакаться, то можно их убедить скинуть цену. На лицензии всё равно не хватит, но копеечка лишней не бывает :-)
    Ответ написан
    Комментировать
  • Как быстро углубить знания в виртуализации?

    athacker
    @athacker
    Вы конкретные вопросы задавайте. А на общие вопросы будут общие же ответы. Типа: "читайте методички".

    У VMware достаточно обширная документация, так что начните прямо с первоисточника: https://www.vmware.com/support/pubs/vsphere-esxi-v... ;-)

    Есть ещё книжечка на русском: https://www.gotoadm.ru/useful-book-administration-...
    Но надо понимать, что она кое-в-чём устарела, да и является, по сути, пересказом документации.
    Ответ написан
    Комментировать
  • На сколько безопасно располагать 1000 виртуальных машин в одном сегменте сети и какие есть риски?

    athacker
    @athacker
    Броадкаст сожрёт заметную часть пропускной способности сети. Учитывая, что у вас это ещё и на несколько датацентров будет растянуто -- пропускная способность будет падать ещё заметнее, учитывая длинные пинги между датацентрами.

    Второй момент -- смотря что это будут за виртуалки. Если это всё виртуалки разных клиентов, то безопасность будет страдать, это факт. Если, конечно, у вас там не будет каких-то хитрых технологий изоляции клиентов друг от друга, типа vmware-вской vapp fencing.
    Ответ написан
    Комментировать
  • Как работают VPS хостеры?

    athacker
    @athacker
    По дискам где-то видел статистику, что на хостингах, как правило, используется около 30% от выделенного пространства. Т. е. если в сумме 100 клиентов выделено по 100 Гб дисков, то реально будет использовано на дисках около 100*100*0.3, т.е. ~3 Тб.

    По CPU и памяти не скажу, не видел данных. Если вы собираетесь стать хостером, то тут только суровая практическая реальность вам подскажет, насколько можно сделать оверкоммит. Начните с определённого размера инфраструктуры, которая позволит по полной вместить несколько десятков клиентов со средними тарифными планами, ну и дальше ориентируйтесь, как пойдёт.
    Ответ написан
    Комментировать