Я хочу иметь возможность запускать Spark 2.0 и Spark 1.6.1 в режиме кластера на одном кластере, чтобы иметь возможность обмениваться ресурсами, каковы наилучшие методы для этого? это потому, что я хочу иметь возможность защищать определенный набор приложений от изменений кода, которые полагаются на версии 1.6.1 и другие на Spark 2.0.Запуск двух версий Apache Spark в режиме кластера
В основном кластер может полагаться на динамическое распределение для Spark 2.0, но, возможно, не для 1.6.1 - это гибкое.
Какого менеджеру ресурсов вы используете сп rk собственный автономный планировщик? –
Мы ничего не используем, но я открыт для использования mesos ... –