spark docs состояние:Спарк потокового StreamingContext активное количество
Только один StreamingContext может быть активным в JVM в то же время.
Представьте себе случай, когда я планирую читать/обрабатывать данные из двух тем Кафки, где есть одна работа выборки данных из одной Кафки темы, а другие выборка данных из другой Кафка темы. Могу ли я одновременно запускать эти два задания параллельно на одном и том же кластере сложения?
Он также утверждает,
После того, как контекст был остановлен, он не может быть перезапущен.
Так что, если мне по какой-то причине нужно прекратить искру, то каким образом его перезапустить? Я вызываю это через oozie или что-то еще?