• Как заставаить ПК воспринимать пару "вторая мышь+клавиатура" как джойстик?

    azretik
    @azretik
    web, xen, vlan, cisco, wiki
    В данный момент времени возможно использование аппаратных реализаций через cronuxmax или эмуляторы геймпада xbox360 для этих же самых приставок.

    В качестве программной реализации подходят любые эмуляторы этих самых геймпадов. x360ce к примеру. Не понимаю, почему нельзя было прогуглить этот вопрос? ;)
    Ответ написан
  • XenServer - как осуществить проброс сетевого интерфейса в режиме trunk, так чтобы в VM можно было вынуть vlan?

    azretik
    @azretik Автор вопроса
    web, xen, vlan, cisco, wiki
    Разбирался в данном вопросе, наткнулся на официальную документацию, в которой всё описано. Само собой режим работы интерфейса должен быть Trunk, до кучи и "несущим" vlan должен быть 1й. Если вы используете этот влан на хосте гипервизора, то пробросив такой vlan в VM вы не получите с него данных, что и было со мной. Ну и соответственно vlan внутри VM у меня не работали в принципе из-за того, что основной у меня был vlan12.

    Вот выдержка из документации:
    To configure the switch on a VLAN network, you must configure it as follows:
    *Port connected to XenServer on the switch must be configured as trunk port.
    *Port on the switch must be configured for 802.1q encapsulation.
    *Port security cannot be set on the trunk port.
    *Port designated as trunk should be assigned a native VLAN; use 1 as default.
    Note: If a Native VLAN is used on the switch trunk port, then you cannot assign that VLAN number to a Virtual Machine on the XenServer. Refer to the following example for a working tested model.
    Ответ написан
  • Передача трафика двух подсетей по одному кабелю (VLAN)?

    azretik
    @azretik
    web, xen, vlan, cisco, wiki
    Всё правильно описано, не понимаю почему первый же пост не отмечен в качестве решения вопроса. Но на всякий случай простым языком объясню.

    В vlan сетях основными понятиями являются trunk и access. access - передача трафика только одной vlan. trunk - передача трафика множества сетей vlan. В режиме trunk подсети могут быть tagged и untagged. К каждому порту присваивается vlan как основной, трафик такой сети является untagged - передаётся как есть. В access - это единственный передаваемый трафик, но для trunk порта - это несущий. В транке остальные сети помечаются как tagged, они упаковываются в спец обертку, которую можно раскрыть на другом конце.

    А следовательно мы на одной стороне создаем необходимое количество vlan, все локальные порты коммутатора помечаем в access в зависимости от сети, которую нужно передать к устройству. Порт на передачу в другой коммутатор помечаем как транк, выдаём untagged несущую, остальные vlan вносим как tagged. На другом конце делаем всё точно так же. Все порты к устройствам помечаем как access с указанием конкретно необходимого vlan. Порт передачи на первый коммутатор вводим в режим транк с указанием аналогичной несущей vlan, а остальные вланы добавляем в качестве tagged.

    Всего делов. Если подключиться к передающему порту, то без trunk режима работы устройство увидит только несущий трафик, остальной не будет виден, так как упакован. Всё приблизительно, но основная суть такова. Есть конечно еще разные режимы, у cisco general, у каждого производителя всё может называться по своему, но базис таков.
    Ответ написан
  • Ошибка при установке XenServer 6.1, 6.2. Решим?

    azretik
    @azretik Автор вопроса
    web, xen, vlan, cisco, wiki
    Извините за столь поздний ответ на данный вопрос, но проблема крылась в неисправной планке памяти, точнее сказать она вполне себе исправно работает в ряде случаев, но не всегда. Дополнительной проблемой при установке XCP и XenServer является активный контроллер парралельного порта. После отключения оного в биосе установка протекает без эксцессов, ровно как и дальнейшая работа системы виртуализации. Эта же проблема возникает и при установке ряда операционных систем, к примеру: OpenMediaVault
    Ответ написан
  • Xen 4.2.4, пробрасывается только одно USB-устройство. Как пробросить несколько?

    azretik
    @azretik
    web, xen, vlan, cisco, wiki
    на сколько мне понимается в компьютерах нынче все USB разъемы обслуживаются не одним контроллером, так что есть смысл сделать lspci и посмотреть сколько их и выделив один под ВМ все же пробросить его. обычно это 2-4 usb порта. у меня на сервере 10 контроллеров. Вполне могу себе позволить пробросить 1-2 в ВМ.
    f5a2af76d7474786af5aa23293edc569.PNG
    Ответ написан
  • Организация БД для нескольких компаний?

    azretik
    @azretik
    web, xen, vlan, cisco, wiki
    Можно сделать префиксы для наименования таблиц, если храниться все же данные будут в разных таблицах, но в одной бд. Хотя вариант А, как и писали выше тут был бы наиуместнейшим.
    Ответ написан
  • Есть ли веб оболочка для XCP чтобы сразу продавать клиентам вмки? Аналог solusvm?

    azretik
    @azretik
    web, xen, vlan, cisco, wiki
    XOA можно попробовать. вроде там и возможность разделения по аккаунтам есть.
    Ответ написан
  • Как пробросить пишущий blu ray из гипервизера (xen opensuse 12.3) в гостевую виртуальную машину windows 8 или windows 2012?

    azretik
    @azretik
    web, xen, vlan, cisco, wiki
    на современных материнских платах обычно используется 2 sata контроллера, могу предложить прокинуть PCI устройство sata контроллер с меньшим кол-вом слотов (обычно 2) в виртуалку.

    lspci - узнаем адрес устройства и прокидываем через параметр other-config:pci=
    Ответ написан
  • Виртуализация для домашнего использования

    azretik
    @azretik
    web, xen, vlan, cisco, wiki
    не посчитайте за трупоеда, что старые темы поднимаю, но как вижу подписчики еще в строю, может понадобится информация.

    полностью согласен с valdiks на счет XCP виртуализации. Ровно так же поступил и я сам. Для начала нужно подготовить платформу для всего этого дела. У меня 2 ssd жестких диска и 4шт обычных на отдельном контроллере. Есть желание сделать одну мышку для обоих систем, общий доступ к тем же файлам, да и вообще, чтобы было ощущение работы за одним компьютером. Операционные системы интересующие меня это Windows 7 и Mint. Для каждой системы желательно выделить отдельную видео карту, у меня для этого была припасена материнская плата с 2 PCIE16 и интегрированной в Intel процессор. Ставим именно Intel видеокарту в приоритете в BIOS, но не выключаем остальные. Для USB тоже желательно несколько отдельных контроллеров. Ровно так же поступил, поставил 2 дополнительных. Со звуком проще, можно вынимать из HDMI.

    Скачиваем и устанавливаем сперва XCP 1.6 на 1 ssd диск и указываю его в качестве основного жесткого диска для работы виртуализации. На контроллере для гипервизора оставляю этот ssd и жесткий диск на 1тб (под общие файлы для операционок). Дальше нужно расшарить для остальных систем 1тб жесткий диск в качестве корневого носителя. Для этого нужно доставить в centos пакеты с samba. Чтобы иметь возможность устаналивать дополнительные пакеты в систему нужно включить конфигурацию yum.
    nano /etc/yum.repos.d/CentOS-Base.repo
    nano /etc/yum.repos.d/CentOS-Vault.repo

    Сам я поставил MC, samba. Подключите, примонтируйте в fstab жесткий диск на 1тб и расшарьте его в sabma. После чего благополучно можно переходить к следующим манипуляциям. Для адекватной настройки ВМ в XCP я пользуюсь XenCenter, а для его адкватной работы нужно произвести некоторые манипуляции по настройке самого гипервизора.
    cd /opt/xensource/bin
      /etc/init.d/xapi stop
      cp -vp xapi xapi.original
      sed -i 's/1\.4\.90/6.0.99/g' xapi
      /etc/init.d/xapi start

    А так же нужно установить пакет отвечающий за трансфер ВМ. Если вдруг оно вам понадобится, для этого нужно скачать с сайта Citrix XenServer образ и примонтировав к системе установить пакет packages.transfer-vm/xenserver-transfer-vm-6.1.0*
    rpm -i xenserver-transfer-vm-6*

    На этом месте я создаю 2 ВМ, место под установку Mint я забираю на ssd для гипервизора, а вот для windows будет использован отдельный жесткий диск, на отдельном контроллере, так что созданный образ виртуального жесткого диска можно удалить и сперва пробросить наш контроллер в систему или пробросить все жесткие диски в win как блочные устройства.

    Подключения хардов без проброса контроллера, а в виде блочных устройств.
    Создаем папку для линков
    mkdir /srv/hdds
    Создаем SR
    xe sr-create name-label="HDDS" name-description="Блочные устройства" type=udev content-type=disk device-config:location=/srv/hdds

    ну и линкуем наши харды из системы
    ln -s /dev/md0 /srv/hdds/md0
    ну и теперь можно сходить в xencenter, пересканировать SR хранилище и подключить оттуда жесткие диски к нашей системе. Больше 4 жестких дисков таким методом не пробросить. Но можно снять ограничение и увеличить до 16.

    для проброса устрйоств в ВМ делаем lspci - для того чтобы узнать как называются у нас наши контроллеры.
    xe vm-param-set other-config:pci=0/0000:01:00.0,0/0000:01:00.1 uuid=d103a91d-5c38-844f-14d5-64b3c495eb08
    К примеру для проброса usb и видео контроллера. Но в моем случае, такой подход к Mint, а для win прокидываем еще и контроллер с жесткими дисками. По желанию можно прокинуть и звуковую карту. Теперь остается запустить наши новые ВМ и поставить на них операционные системы и драйверы. Для общих файлов в windows я расшариваю остальные жесткие диски. Для того чтобы "интегрировать" системы друг в друга, я подключаю в качестве папок с окружением и на win и на mint (рабочий стол, мои документы, моя музыка и прочее) папки с шары с жесткого диска из гипервизора. Побочный эффект - это link файлы из mint на рабочем столе для windows и ярлыки от win на столе mint. Ну и для удобства работы с системами, я рекомендую поставить программу проброса мыши и клавиатуры Synergy. Программа умеет перемещать и клавиатуру вслед за мышью, общий копипаст и даже перетаскивать файлы. Весьма удобно в нашем случае. Так же является кросс платформенной. Рекомендую подключить и пробрасывать управление с той системы которая будет главной. Ну и на будущее можно попытаться объединить для Nix все мониторы. Для этого хочу поставить на win xserver и подключить к xorg как дополнительный монитор.

    Заранее извиняюсь если кому-то написал непонятно и сумбурно. С утра в четверг хочется помочь людям, но качественно не можется =)

    Уоу, чуть не забыл =) автостарт операционных систем в гипервизоре.
    xe vm-param-set uuid=... other-config:auto_poweron=true

    ну не вручную же запускать нам операционки. По статьям на хабре можно заметить, что особого падения производительности нет,
    Ответ написан
  • NAS или нетбук?

    azretik
    @azretik
    web, xen, vlan, cisco, wiki
    В свое время приобрел NAS от Netgear (Stora). Usb гнездо, 2 разъема под 3.5 жесткие диски, возможность взломать и поставить необходимый софт. Но самый большой плюс конечно же - это низкий уровень шума. Конечно по дефолту софта в нем практически никакого нет и политика Netgear с вариантом докупки необходимого софта дополнительно меня не порадовала, но получить root и поставить OpenMediaVault и уже никакие Netgear ухищрения не страшны. Ценник на девайс не особо кусачий. По сути новый Stora выйдет дешевле нового нетбука, а так же плюс в том, что возможно устанавливать жесткие диски 3.5 дюйма.
    Ответ написан
  • Домашний NAS из старого нет бука?

    azretik
    @azretik
    web, xen, vlan, cisco, wiki
    Могу посоветовать OMV (Open Media Vault). Ядро Debian, сверху веб гуи и возможность создания NAS любой сложности. Система многого не потребует для себя, но сможет поднять программные RAID любой сложности. Само собой умеет и бекапить все что хотите и виртуальные машины держать (vbox), и антивирус, и torrent (у всего этого добра свои собственные web gui).

    Я думаю сейчас все с Debian консолью знакомы? если нет, то web gui omv может позволить работать с системой даже обычному windows пользователю. Я все сказал =)
    Ответ написан
  • Есть ли готовые продукты NAS + Virtualbox?

    azretik
    @azretik
    web, xen, vlan, cisco, wiki
    Честно признаюсь не знаю, что там конечно с рекомендуемыми параметрами озу, но есть проект OMV (Open Media Vault), там и debian в качестве ОС и гипервизор от Vbox и все функции NAS, можно настраивать вдоль и поперек. Само собой веб интерфейс как и у самого функционала NAS, так и у Vbox. Ну и само собой система бесплатна и открыта.

    На предприятии в течении года уже трудится (правда без виртуалок), проблем не было замечено (кроме повального наплыва вирусов, пришлось поставить антивирус и проверку файлопомойки каждую ночь). Но и характеристики у сервера немного другие. 12гб озу и 4 потока Xeon. Для 20 жестких дисков вполне себе хватает (массивы софтовые, благо omv умеет).
    Ответ написан
  • Grub не видит разделы в xen. Почему?

    azretik
    @azretik
    web, xen, vlan, cisco, wiki
    аналогичная проблема, пытаюсь поставить kerio control 8 версии, установщик не видит виртуального жесткого диска, так же при импорте из vhd в xcp загрузчик не видит откуда подгружать ОС и вылетает в консоль.
    Ответ написан
  • Как осуществить миграцию машины с Virtualbox на Xen?

    azretik
    @azretik
    web, xen, vlan, cisco, wiki
    весьма интересует этот вопрос, но в несколько другой плоскости. Я XCP 1.6 использую на centos который. Нужно перенести Kerio control с реального железа в виртуальную среду. Раньше для этого была необходимость ставить операционную систему на Vbox (в vhd) и импортировать в срезу xcp через xencenter. Теперь правда все старые версии kerio control Software Appliance адекватно могут поставиться и сами на xcp, но начиная с 8 версии установщик не видит виртуального жесткого диска, а так же перенесенная с vbox не загружается из-за того, что новый загрузчик тоже не видит виртуального хранилища. Хотя в загрузчике hdd объявлен по UUID. подкидвал в debian и проверял, uuid правильно опрашивается, но не отвечает на призыв загрузчика и система отказывается дальше загружаться.

    пс тут toster.ru/q/22478 как-раз мой случай.
    Ответ написан
  • XenCloudPlatform 1.6, конвертация .xva => .ovf и обратно?

    azretik
    @azretik
    web, xen, vlan, cisco, wiki
    Для того чтобы GUI XenCenter адекватно работал с импортом и экспортом в XenCloudPlatform в XCP нужно поставить соответствующие пакеты, которые нужно вынуть из XenServer (Citrix).

    Скачиваем с официального сайта Citrix образ XenServer 6.1. Я записал его на диск, вставил в систему (вы можете примонтировать или использовать как виртуальный оптический привод, через nfs или samba).

    Открываем консоль сервера и лезем в packages.transfer-vm оттуда устанавливаем файл xenserver-transfer-vm-6.1.0-59002p.noarch.rpm

    rpm -ivh xenserver-transfer-vm-6.1.0-59002p.noarch.rpm


    ну и все =) теперь трансфер должен работать, так же советую провести в консоли xcp следующую процедуру:

    cd /opt/xensource/bin
        /etc/init.d/xapi stop
        cp -vp xapi xapi.original
        sed -i 's/1\.4\.90/6.0.99/g' xapi
        /etc/init.d/xapi start


    Все это мною было обнаружен...

    Ну и уточню до кучи, что я использую контейнеры VHD для виртуальных машин, так как это довольно практично. Можно работать с VHD как в xcp, так и в windows (подключив как обычный хард в центре управления, а так же можно работать с виртуальной машиной в VirtualBox на локальном компьютере, при необходимости =)
    Ответ написан