2015-07-14 3 views
2

, когда я пытаюсь:KeyError: 'SPARK_HOME' в pyspark

from pyspark import SparkContext, SparkConf 
sc=SparkContext() 

я получаю:

KeyError: 'SPARK_HOME' 

Что такое решение?

+0

заданной переменной окружения 'SPARK_HOME' –

ответ

2

pyspark опирается на spark SDK. Это необходимо установить перед использованием pyspark.

После этого вам необходимо установить переменную окружения SPARK_HOME, чтобы сообщить pyspark, где искать свою установку spark. Если вы на системе NIX * Вы можете сделать это, добавив последующие к вашему .bashrc

export SPARK_HOME=<location of spark install> 

Если вы используете Windows, есть извилистый путь установки переменных с помощью графического интерфейса here. Через DOS вы можете использовать set в месте export:

SET SPARK_HOME=<location of spark install> 
Смежные вопросы