Следующий вопрос SOF How to run script in Pyspark and drop into IPython shell when done? рассказывает, как запустить pyspark скрипт:Как получить доступ к SparkContext в pyspark сценарии
%run -d myscript.py
Но как мы получаем доступ к existin контекст свечи?
Просто создать новый не работает:
----> sc = SparkContext("local", 1)
ValueError: Cannot run multiple SparkContexts at once; existing
SparkContext(app=PySparkShell, master=local) created by <module> at
/Library/Python/2.7/site-packages/IPython/utils/py3compat.py:204
Но попытка использовать существующий .. хорошо , что существующий?
In [50]: for s in filter(lambda x: 'SparkContext' in repr(x[1]) and len(repr(x[1])) < 150, locals().iteritems()):
print s
('SparkContext', <class 'pyspark.context.SparkContext'>)
т.е. нет переменной для экземпляра SparkContext
Что происходит, когда вы запускаете этот первый: 'от pyspark импорта SparkContext'? – dnlbrky
С Spark 2.0.0 и далее, «sparkSession», которую вы можете создать без столкновения, имеет свойство «sparkContext» для доступа к исходному контексту. –