2016-10-10 3 views
0

Я новичок в использовании искры и после установки в моей системе ubuntu, я столкнулся с проблемой.Spark, проблема с Pyspark на Ubuntu

Я загрузил искровую среду, соединитель mongo-hadoop, и у меня есть java в моей системе после этого, если вы запустите PySpark (чтобы получить оболочку) в строке cmd, которая показывает, что cmd не найден или импортирован пакет pyspark_mongo в python не отображает такую ​​библиотеку.

Если я пытаюсь запустить pyspark или искру подать в бункере/искры получает сообщение об ошибке: Не удались найти каталог Свечи банки (/spark/assembly/target/scala-2.10/jars). Перед запуском этой программы вам необходимо создать Spark с целевым «пакетом».

Мне нужно это для анализа данных, может кто-то пожалуйста посоветуйте, что можно сделать.

+0

Куда вы его нашли? Я тоже новый. Я получил 'spark-2.0.0-bin-hadoop2.7.tgz' из' spark.apache.org', несжатый в папку, и это папка './Bin/pyspark' и' ./bin/run-example SparkPi' работает для меня - Linux Mint (база на Ubuntu 14) – furas

+0

Furas Эти примеры предоставлены для справки в каталоге. Я повторно загрузил искру из того же источника, что и ваш, поэтому он работает и для меня. Вы можете сослаться на http://spark.apache.org/docs/2.0.1/quick-start.html для документации по искре на разных языках, помогли мне надеяться, что это поможет вам. –

ответ

0

Поскольку команда «pyspark» не найдена, я предполагаю, что она была установлена ​​неправильно. Он по умолчанию доступен как/bin/pyspark

Смежные вопросы