У меня есть запрос на создание нескольких сеансов искры в одной JVM. Я читал, что создание нескольких контекстов не рекомендуется в более ранних версиях Spark. Это верно и для SparkSession в Spark 2.0.Несколько SparkSessions в одном JVM
Я собираюсь сделать вызов веб-службы или сервлета из пользовательского интерфейса, а служба создает искровой сеанс, выполняет некоторую операцию и возвращает результат. Это приведет к созданию искрового сеанса для каждого запроса со стороны клиента. Рекомендуется ли эта практика?
Скажем, у меня есть метод что-то вроде:
общественной ничтожной runSpark() бросает исключение {
SparkSession spark = SparkSession
.builder()
.master("spark://<masterURL>")
.appName("JavaWordCount")
.getOrCreate();
и так далее ....
Если я ставлю этот метод в Интернете службы, будут ли какие-либо проблемы с JVM? Таким образом, я могу использовать этот метод несколько раз из основного метода. Но не уверен, что это хорошая практика.
Я создал еще один вопрос, который тесно связан с этим. См. Http://stackoverflow.com/questions/43013542/creating-many-short-living-sparksessions –