Я пытался разработать программу Spark, используя Apache Spark Framework.
Я хочу создать экземпляр HiveContext
без каких-либо кластеров.
Можно ли использовать HiveContext
и запустить его локально через Eclipse Scala IDE без использования какого-либо кластера?Возможно ли запустить улей на Spark в Eclipse IDE?
ответ
Просто это возможно? Конечно ... (курсив добавлен)
Чтобы использовать
HiveContext
, вам не нужно иметь существующую установку улей, и все источники данных, доступных дляSQLContext
все еще доступны.
Однако, вам необходимо скомпилировать дополнительный код.
HiveContext
упакован отдельно, чтобы избежать включения всех зависимостей Hive в сборку по умолчанию Spark. Если такие зависимости не является проблемой для вашего приложения затем с помощьюHiveContext
рекомендуется
Но, если вы просто писать Спарк без кластера, нет ничего держит вас Спарк 1.x, и вы должны вместо используйте Spark 2.x, который имеет SparkSession
в качестве точки входа для связанных с SQL вещей.
Eclipse IDE не имеет значения. Вы также можете использовать IntelliJ ... или нет IDE и spark-submit
любой JAR-файл, содержащий некоторый код искры ...
- 1. Возможно ли запустить несколько приложений Spark на кластере мезос?
- 2. Возможно ли иметь CDT и Java IDE вместе в Eclipse?
- 3. apache Spark с улей
- 4. Возможно ли запустить приложение в качестве администратора из Delphi IDE
- 5. Как запустить Eclipse IDE в безголовом режиме?
- 6. Как Scala Eclipse IDE для подключения к существующему улей
- 7. Как запустить Spark-обработку параллельно в Eclipse?
- 8. Зависит ли каталог Eclipse (IDE)
- 9. Возможно ли запустить автоматический скрипт клонирования в облаке 9 ide
- 10. Как запустить 'sbt update' в eclipse IDE?
- 11. Отправка приложения Spark на YARN из Eclipse IDE
- 12. Улей на местном Spark - как настроить?
- 13. Eclipse IDE на ubuntu
- 14. Разработка IDE на основе Eclipse
- 15. Использование Hbase в улей, возможно?
- 16. Spark: Как обеспечить «--properties-файл» вариант в развитии Eclipse IDE
- 17. Eclipse IDE на Mac?
- 18. Присоединение сеанса удаленной отладки к Spark из Eclipse Scala IDE
- 19. Eclipse: возможно ли запустить FindBugs в файле save action?
- 20. Возможно ли запустить внешнюю программу из Eclipse в многопоточном режиме?
- 21. Возможно ли транслировать контекст Spark?
- 22. Возможно ли возобновить неудачную работу Apache Spark?
- 23. Отладка в Eclipse IDE
- 24. Eclipse IDE в докере
- 25. Плохая символическая ссылка на SQLContext.class в Eclipse Luna scala IDE
- 26. Spark Kafka - Проблема во время работы от Eclipse IDE
- 27. weblogic.application.AnnotationProcessingException в Eclipse IDE
- 28. не удалось запустить приглашение на улей
- 29. Ярлык в Eclipse IDE
- 30. Как запустить Mahout на Spark
Спасибо! Я немного запутался, потому что сейчас просто изучаю искру. То, что я хотел знать, - создать и использовать таблицу Hive, используя искровую структуру. – Ivan
Вам понадобится кластер Hadoop для создания таблицы Hive, да. Запуск самого кода Spark не требует кластера, нет. –