Спарк Standalone: В чем разница между Spark Standalone, YARN и локальным режимом?
В этом режиме я понял, что вы запустите мастер и рабочие узлы на локальном компьютере.
Означает ли это, что у вас есть экземпляр YARN на моей локальной машине? С тех пор, как я установил Spark, он пришел с Hadoop, и, как правило, YARN также поставляется с Hadoop, а также правильно? И в этом режиме я могу по существу имитировать меньшую версию полномасштабного кластера.
Спарк Локальный режим:
Это часть я также путать с. Чтобы запустить его в этом режиме, я делаю val conf = new SparkConf().setMaster("local[2]")
.
В этом режиме он не использует какой-либо тип диспетчера ресурсов (например, YARN) правильно? Например, просто запускает Spark Job в количестве потоков, которые вы предоставляете "local[2]"\
?
Кроме того, если я отправлю свое задание Spark в кластер YARN (используя исходный текст на моем локальном компьютере), как объект SparkContext знает, к чему должен подключаться кластер Hadoop? – CapturedTree
CurrentIy, я использую Spark-submit и указываю '--deploy-mode' как' cluster'.Но как SparkContext знает, где кластер Hadoop должен запускать искровые приложения на узлах данных HDFS? Есть ли какая-то конфигурация Spark, которая указывает, где находится кластер Hadoop, и всякий раз, когда вы создаете экземпляр SparkContext, он знает, где находится кластер из-за этого файла конфигурации? – CapturedTree