Как выбрать сервер для вычислений на Apache Spark?
Добрый вечер всем!
Я пишу на Python и я новичков в Spark (изучил docs Apache Spark/Поделал базовые задачки на локальной машине) и распределенных вычислениях .У меня есть довольно неплохой опыт в ML , но все мои расчеты я всегда выполнял на своей локальной машине и никогда не имел дела с удаленными машинами .
Люди, кто уже имел опыт работы со Spark ,могли бы вы порекомендовать какие серверы лучше всего использовать новичку (по каким критериям выбирать),либо ссылки на полезные ресурсы где в очень развернутой форме описывается процесс подключения к серверам и дальнейшие вычисления на них
Привет, тоже относительно недавно стал интересоваться данной темой. Выбрал для себя AWS сервисы. Там можно развернуть кластер(множество вычислетельных устройств, которые делят вычислительные мощности для обработки). Apache Spark там можно развернуть, другое дело как ты туда будешь данные закидывать, там тоже есть множество вариантов.