@Heavy10110

Hadoop + ApacheSpark deploy cluster?

Привет, только вкатываюсь в архитектуру.
Нужно развернуть hadoop для хранения данных, apache spark для обработки.
Как будет выглядеть архитектура с точки зрения серверов?
Нужно много серваков и собирать их в кластер? Или будет одно облако, где все будет крутится?
Как правильнее сделать?
  • Вопрос задан
  • 44 просмотра
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы