Мне нужно запустить скрипт Apace Spark на Amazon EC2. Скрипт использует такие библиотеки, как numpy, pandas и т. Д. Проблема в том, что у меня есть numpy, установленный в /usr/local/lib64/python2.7/site-packages
, и эта папка по умолчанию не находится в PYTHONPATH. Поэтому, когда я export PYTHONPATH=$PYTHONPATH:/usr/local/lib64/python2.7/site-packages
, обычно питона обнаруживает его (import numpy
вызывает никаких проблем), но когда я пытаюсь импортировать его в pyspark оболочки - это показывает:Apache Spark на Amazon EC2 PYTHONPATH проблема
>>> import numpy
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
ImportError: No module named numpy
>>> exit()
есть ли решение, как изменить PYTHONPATH pyspark в?
+1 на ответ Джо, я воздерживаюсь от -1 на ваш вопрос, но было бы неплохо узнать, работает ли это, чтобы улучшить SO. Кроме того, я не могу редактировать только одного персонажа, но это «Apache» для Google, а не «Apace» ха-ха :) Этот вопрос очень высок в результатах поиска Google, поможет, если вы либо удалите его, либо заполните его, пожалуйста? – JimLohse