Задать вопрос

Рендер-ферма: стойка vs мощный системник?

Всем привет.

Посоветуйте пожалуйста, те, кто имел практический опыт работы с системами из более чем 2-х CPU.

Задача: построить мощную рендер-ферму для просчёта визуализации. Бюджет не безлимитный, но все варианты, которые приведены ниже, вполне возможны. Итак.

Варианты:
1. Построить мощный системник, содержащий до 8 CPU Intel Xeon(10-core).
Например, вот на этой плате.
Никогда не видел, чтобы в одном корпусе умещалось так много CPU. Как быть с теплоотводом? Есть ли у кого реальный опыт, ссылки или примеры того, как это вообще можно втиснуть в какой-либо корпус? Живые примеры кто-нибудь видел?

2. Или построить стойку (вместимостью от 10 лезвий). Куда впоследствии можно было бы просто докупать и вставлять в стойку новые лезвия (напр. в каждом лезвии по 2-4 CPU Intel Xeon 10-core, и 128Gb DDR3).
Например, что-то вот такое.

Очень хотелось бы именно стойку, куда потом просто докупать лезвия.

Вопросы:
- Как именно на практике вычислительные ресурсы стойки объединяются воедино? Как это всё работает? У меня нет опыта. Подскажите пожалуйста, кто знает точно.
Другими словами: Если стойка, то для создания единого подмножества CPU и RAM потребуется развёртывать что-либо наподобие OpenStack, или же железо в стойках на нативном аппаратном уровне расшаривает аппаратные ресурсы всех блейдов?

- Если возможно построить единое вычислительное облако (OpenStack): то покупать лицензии 3ds max backburner + vray потребуется как на одну машину?

- Появился ли способ использовать для просчёта визуализации Vray вычислительные ресурсы Intel Xeon Phi, или GPGPU (OpenCL или CUDA)?

Если в чём не точно выразился, или у Вас есть вопросы, то можете задавать.
Спасибо.
  • Вопрос задан
  • 6875 просмотров
Подписаться 7 Оценить 9 комментариев
Пригласить эксперта
Ответы на вопрос 7
gbg
@gbg Куратор тега Железо
Любые ответы на любые вопросы
Некоторые блейд-стойки, вроде HP C3000 логически выглядят как обычный набор серверов, подключенных к L3 коммутатору Ethernet и к коммутатору FiberChannel для доступа к SAN.
Все администрирование выполняется как с обычными серверами, плюс состоит в том, что это можно делать прямо из браузера - и узнать состояние системы (во всех подробностях: потребление питания, температуры в разных зонах, работа вентиляторов) и подмонтировать диск со своей машины (без необходимости бегать к стойке), ну и банально, виртуально увидеть "монитор" лезвия и кнопки питания/перазапуска нажать.

Дополнив эту корзину системой хранения данных и развернув на ней кластерную ФС типа GFS2, можно получить неплохую цифродробилку.
Ответ написан
zmeyjr
@zmeyjr
Дисклеймер в профиле.
Идти к профессионалам www.t-platforms.ru
Ответ написан
@386DX
render farm это набор серверов (или обычных системников) соединенных сетью. Память и процессоры у них не единые.

То что вы называете "мощный системник, содержащий до 8 CPU Intel Xeon(10-core)" это суперкомпьютер, у которого память и процессоры объединены и функционируют вместе. Он вам скорее всего не нужен, и у вас нет на него денег.

Разница в цене между этими решениями несколько десятков раз.

Я бы посоветовал потратить немного денег и заказать техзадание железа у людей, занимающихся этим, дабы потом не было мучительно больно.
Ответ написан
@DmitriKotov Автор вопроса
По-сути дела расклад теперь понятен:) После просмотра сайта t-platforms вопросов больше нет:)
Спасибо всем большое, за подробные ответы:)
Тему можно закрывать
Ответ написан
opium
@opium
Просто люблю качественно работать
Сходите к интегратору, вы с такими вопросами нагородите себе проблем больше чем решений.
Ответ написан
ptchol
@ptchol
Linux system administrator
Чтобы ответить на вопрос стоит изучить особенности самих рендеров, которые вы собираетесь пускать на данной ферме.
К примеру очень популярный vray при сетевом рендере не умеет пускать просчет light cache на нескольких машинах. В результате, на сложных сценах вы 40 минут на ведущей ноде считаете свет, а потом за 10 рендерите все остальное.
Касательно vray и GPU, есть модификация vray rt который гоняет и gpu и cpu.

А вобще, по личному опыту. Использование амазоновских виртуалок c3.8xlarge может оказаться очень выгодным решением, если не держать их постоянно включенными :)
Ответ написан
@deleted-rss1alex
www.tilera.com - cайт производителя. Сайт нового собственника не знаю. В каждом компьютере 8 процессоров. Можете смотреть 200-ядерные процессоры. В сервере получается 500 000 виртуальных ядер. Этот процессор был изготовлен до перекупки компании и устарел. После появились и 512-ядерные процессры. Не знаю, сколько в таком компьютере виртуальных ядер, предположительно в в 2 с половиной раза больше. Информация об этом процессоре устарела и, сорее всего, уже выпущен ещё более мощный процессор и не один ещё в разработке.

Можете сравнить с вычислениями в видекарте MSI Geforse Ti, установленными 4 в стойке. Выгоднее сейчас приобретать видеокарты. Процессоры быстрее видеокарт. Найдёте что-то новое - сообщите мне и ответ не удаляйте.
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы