Задать вопрос
@Heavy10110

Hadoop + ApacheSpark deploy cluster?

Привет, только вкатываюсь в архитектуру.
Нужно развернуть hadoop для хранения данных, apache spark для обработки.
Как будет выглядеть архитектура с точки зрения серверов?
Нужно много серваков и собирать их в кластер? Или будет одно облако, где все будет крутится?
Как правильнее сделать?
  • Вопрос задан
  • 45 просмотров
Подписаться 1 Простой Комментировать
Помогут разобраться в теме Все курсы
  • Учебный центр IBS
    RT-001 Эксплуатация RT.DataLake
    1 неделя
    Далее
  • Учебный центр IBS
    EAS-015 Основы Hadoop
    1 неделя
    Далее
  • АИС
    Основы Hadoop
    1 неделя
    Далее
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы