У меня есть кластер с Hadoop 2.0.0-cdh4.4.0, и мне нужно запустить Spark на нем с YARN в качестве менеджера ресурсов. Я получил следующую информацию от http://spark.apache.org/docs/latest/building-spark.html#specifying-the-hadoop-versionЗапуск Apache Spark на Hadoop 2.0.0-cdh4.4.0
Вы можете включить профиль пряжи и, возможно, установить свойство yarn.version, если оно отличается от hadoop.version. Spark поддерживает только версии YARN версии 2.2.0 и новее.
Я не хочу обновлять весь пакет Hadoop для поддержки версии YARN версии 2.2.0, поскольку мои HDFS имеют массивные данные и обновление, это вызовет слишком долгий перерыв в обслуживании и будет слишком рискованным для меня.
Я думаю, что лучшим выбором для меня может быть использование более высокой версии YARN, чем 2,2, в то время как версия других частей моего Hadoop не изменится. Если это так, какие шаги следует выполнить для получения такого пакета YARN и его развертывания в моем кластере?
Или существует другой подход для запуска Spark на Hadoop 2.0.0-cdh4.4.0 с YARN в качестве менеджера ресурсов?