Я не системный администратор, но мне, возможно, потребуется выполнить административную задачу и, следовательно, вам потребуется помощь.Установить Spark на существующий кластер Hadoop
У нас есть (удаленный) кластер Hadoop, и люди обычно запускают задания сокращения масштаба на кластере.
Я планирую установить Apache Spark на кластере, чтобы можно было использовать все машины в кластере. Это должно быть возможно, и я прочитал от http://spark.apache.org/docs/latest/spark-standalone.html «Вы можете запустить Spark рядом с существующим кластером Hadoop, просто запустив его как отдельную услугу на тех же машинах ...»
Если вы сделали это раньше, пожалуйста, дайте мне подробные шаги, чтобы создать Spark-кластер.