У меня есть Spark 1.6.2 и Spark 2.0 установлен на моем кластере hortonworks.Как использовать две версии искровой оболочки?
Обе эти версии установлены на узле в Hadoop Cluster из 5 узлов.
Каждый раз, когда я начинаю spark-shell
я получаю:
$ spark-shell
Multiple versions of Spark are installed but SPARK_MAJOR_VERSION is not set
Spark1 will be picked by default
Когда я проверить версию я получаю:
scala> sc.version
res0: String = 1.6.2
Как я могу начать другую версию (искровой-оболочки Spark2.0)?
Я попробовал это ее не работаю, я получаю 'SPARK_MAJOR_VERSION установлен в 2.0.0, используя Spark2.0.0 искровой скорлупы не найден, пожалуйста, проверьте, установлен ли spark2.0.0 /usr/bin/spark-shell: строка 26: exec:: not found'. Даже когда я делаю это 1.6.2, это не сработает. –