У меня HADOOP_HOME, HADOOP_CONF_DIR, YARN_CONF_DIR все определены в скрипте spark-env.sh. Однако, когда я пытаюсь загрузить sparksession на пряжу сSpark not pick up hadoop conf
val sess = new SparkConf().setMaster("yarn-client").setAppName("default")
Это раз из
23:36:44.219 [run-main-0] DEBUG o.a.h.i.retry.RetryInvocationHandler - Exception while invoking getClusterMetrics of class ApplicationClientProtocolPBClientImpl over null. Retrying after sleeping for 30000ms.
java.net.ConnectException: Call From ip-10-122-2-155/10.122.2.155 to 0.0.0.0:8032 failed on connection exception: java.net.ConnectException: Connection refused; For more details see: http://wiki.apache.org/hadoop/ConnectionRefused
Там нет ничего работает локально с портом 8032 открытым, так что, очевидно, таймаут.
моя пряжа site.xml прямо говорится, что RM адрес
<property>
<name>yarn.resourcemanager.address</name>
<value>10.122.2.195:8032</value>
</property>
Обычно искровая сессия загружает SparkConf и SQLContext для вас. Когда вы запускаете искровой сеанс, вы не видите эти элементы в stdout? – tadamhicks
Я ничего не вижу о них на выходе – Anisotropic
Прошу прощения, я имел в виду искровую оболочку. Вы запускаете это как искра-submit или вызываете оболочку? Я принял последнее, но понимаю, что это может быть неверно. – tadamhicks