Задать вопрос
@Heavy10110

Hadoop + ApacheSpark deploy cluster?

Привет, только вкатываюсь в архитектуру.
Нужно развернуть hadoop для хранения данных, apache spark для обработки.
Как будет выглядеть архитектура с точки зрения серверов?
Нужно много серваков и собирать их в кластер? Или будет одно облако, где все будет крутится?
Как правильнее сделать?
  • Вопрос задан
  • 45 просмотров
Подписаться 1 Простой Комментировать
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы
от 180 000 до 240 000 ₽
Сбер Санкт-Петербург
До 420 000 ₽
Selecty Москва
До 170 000 ₽