У меня есть локальная искра 1.5.2 (hadoop 2.4), установленная в Windows, как описано here.Ошибка импорта ошибок в Apache
Я пытаюсь импортировать файл банку, который я создал в Java с использованием Maven (Сосуд jmatrw что я загрузил на here на GitHub). Обратите внимание, что в банке нет искровой программы, и у нее нет никаких зависимостей от искры. Я попытался следующие шаги, но никто, кажется, работает в моей установке:
- Я скопировал библиотеку в «E: /installprogram/spark-1.5.2-bin-hadoop2.4/lib/jmatrw- v0.1-beta.jar "
- Редактировать spark-env.sh и добавить SPARK_CLASSPATH =" E: /installprogram/spark-1.5.2-bin-hadoop2.4/lib/jmatrw-v0.1-beta .jar»
- В окне командной строки я бегу
> spark-shell --jars "E:/installprogram/spark-1.5.2-bin-hadoop2.4/lib/jmatrw-v0.1-beta.jar"
, но он говорит „Предупреждение: пропуск удаленного банка“ - В искра оболочки я пытался сделать
scala> sc.addJar("E:/installprogram/spark-1.5.2-bin-hadoop2.4/lib/jmatrw-v0.1-beta.jar")
, он говорит: «INFO: добавлена баночка ... с меткой времени»
Когда я типа scala> import it.prz.jmatrw.JMATData
, искровым оболочка отвечает error: not found: value it
.
Я потратил много времени на поиск в Stackoverflow и на Google, действительно, аналогичный вопрос Stakoverflow - here, но я все еще не могу импортировать свою обычную банку.
Благодаря
Я добавил параметр 'spark.driver.extraClassPath' в файл' spark-defaults.conf', и он работает! Фактически, SPARK_CLASSPATH был устаревшим в Spark 1.0+, что также было предложено в предупреждениях об искрообразовании. Спасибо, что потратили время на чтение и ответили на мой вопрос. –