У меня возникли проблемы с пониманием того, какая ошибка возвращается к Oozie. Объяснение:OOzie Spark: code 101 error
Я создал очень простой "работу" в Oozie, то XML является то, что:
<workflow-app name="Massimiliano" xmlns="uri:oozie:workflow:0.5">
<start to="spark-2adf"/>
<kill name="Kill">
<message>Action failed, error message[${wf:errorMessage(wf:lastErrorNode())}]</message>
</kill>
<action name="spark-2adf">
<spark xmlns="uri:oozie:spark-action:0.1">
<job-tracker>${jobTracker}</job-tracker>
<name-node>${nameNode}</name-node>
<master>local[*]</master>
<mode>client</mode>
<name>MySpark</name>
<class>org.XXX.SimpleApp</class>
<jar>${nameNode}/user/${wf:user()}//prova_spark/SimpleApp1.jar</jar>
</spark>
<ok to="End"/>
<error to="Kill"/>
</action>
<end name="End"/>
</workflow-app>
The job.properties является продолжением:
nameNode=hdfs://10.203.17.90:8020
jobTracker=10.203.17.90:8021
master=local[*]
queueName=default
oozie.use.system.libpath=true
oozie.wf.application.path=${nameNode}/user/${user.name}/hdfs/user/oozie/share/lib/lib_20160628182408/spark
Я попробовал все больше и больше время для изменения всех параметров без каких-либо результатов.
Ошибка, которая поражает меня это:
Main class [org.apache.oozie.action.hadoop.SparkMain], exit code [101]
Имя узла является главным узлом; Я не знаю, правильно ли установлен oozie.wf.application.path
;
Более подробно об ошибке:
hdfs://nameservice1/user/hdfs//prova_spark/SimpleApp1.jar
=================================================================
>>> Invoking Spark class now >>>
Intercepting System.exit(101)
<<< Invocation of Main class completed <<<
Failing Oozie Launcher, Main class [org.apache.oozie.action.hadoop.SparkMain], exit code [101]
Oozie Launcher failed, finishing Hadoop job gracefully
Oozie Launcher, uploading action data to HDFS sequence file: hdfs://nameservice1/user/hdfs/oozie-oozi/0000117-160804173605999-oozie-oozi-W/spark-2adf--spark/action-data.seq
Oozie Launcher ends
hdfs://nameservice1/user/hdfs//prova_spark/SimpleApp1.jar
Путь правильно! Но я не знаю, где я должен искать решение этой проблемы.
Помогите мне, пожалуйста?
К сожалению, это не работает! Я выполнил следующие шаги: теперь проблема заключается в следующем: 'org.apache.oozie.action.hadoop.SparkMain.loadActionConf() Lorg/apache/hadoop/conf/Configuration;' – Alessandro