Цель: Я пытаюсь получить pyspark apache-spark, чтобы правильно интерпретироваться в моей среде разработки pycharm.pyspark ImportError: не могу импортировать накопители имен
Проблема: В настоящее время появляется следующее сообщение об ошибке:
ImportError: cannot import name accumulators
Я был следующий следующий блог, чтобы помочь мне в этом процессе. http://renien.github.io/blog/accessing-pyspark-pycharm/
Из-за того, что мой код принимал за исключением пути, я лично избавился от попытки: кроме: просто чтобы узнать, что такое точная ошибка.
До этого я получил следующее сообщение об ошибке:
ImportError: No module named py4j.java_gateway
Это было исправлено просто набрав «$ Sudo пункт установить py4j» в Баш.
Мой код в настоящее время выглядит следующим образом: кусок
import os
import sys
# Path for spark source folder
os.environ['SPARK_HOME']="[MY_HOME_DIR]/spark-1.2.0"
# Append pyspark to Python Path
sys.path.append("[MY_HOME_DIR]/spark-1.2.0/python/")
try:
from pyspark import SparkContext
print ("Successfully imported Spark Modules")
except ImportError as e:
print ("Can not import Spark Modules", e)
sys.exit(1)
Мои вопросы:
1. Что является источником этой ошибки? В чем причина? 2. Как исправить проблему, поэтому я могу запустить pyspark в своем редакторе pycharm.
ПРИМЕЧАНИЕ: В настоящее время я использую переводчик в PyCharm является Python 2.7.8 (~/Анаконда/бен/питон)
Спасибо заранее!
Дон
Здравствуйте. Спасибо за ответ. Когда я прокомментировал это, это не устранило проблему. –
Я думаю, что это может иметь какое-то отношение к версии Java.Версия Java у меня 1,8, и ее нужно понизить до 1.6.X для этого. Я просто не хочу этого делать. См. Http://stackoverflow.com/questions/23353477/trouble-installing-pyspark –
@ matt2000, комментирующие аккумуляторы дают ошибку во время выполнения, когда я пытался использовать пример программы (например, wordcount.py) –