Я только начал играть со Спарком, и я уже борется. Я просто скачал искры из spark-1.6.1-bin-hadoop2.4
и попытался открыть PySpark Shell ./bin/pyspark
, но я, к сожалению, будет предложено следующее:Spark - Ошибка: не удалось найти или загрузить основной класс org.apache.spark.launcher.Main
Error: Could not find or load main class org.apache.spark.launcher.Main
среды:
- Ubuntu 14.04.4 64-Bit
- Java версии «1.8. 0_77"
- Python 2.7.6
- Спарк 1.6.1 Предварительно построить для Hadoop 2.4 и позже
Любые подсказки, как устранить эту проблему?
Он отлично работает с искрой 1.2.0 Pre-сборки для Hadoop 2.4 и позже