2015-03-03 5 views
3

Можно ли использовать Spark в качестве двигателя для улья?Spark как двигатель для улья

У нас есть много унаследованных систем и базы кода в Улье и хотели бы использовать Spark с Hive.

Бест,

+0

улей на Спарк еще в стадии разработки. Вы можете отследить его здесь: [HIVE-7292] (https://issues.apache.org/jira/browse/HIVE-7292) –

ответ

4

два варианта, если вы хотите запустить улей на искры, это возможно, но это очень альфа особенность: https://cwiki.apache.org/confluence/display/Hive/Hive+on+Spark%3A+Getting+Started

ИМХО лучше использовать Спарк SQL и назначенный HiveContext, что вы можете использовать так:

// sc is an existing SparkContext. 
val sqlContext = new org.apache.spark.sql.hive.HiveContext(sc) 

sqlContext.sql("CREATE TABLE IF NOT EXISTS src (key INT, value STRING)") 
sqlContext.sql("LOAD DATA LOCAL INPATH 'examples/src/main/resources/kv1.txt' INTO TABLE src") 

// Queries are expressed in HiveQL 
sqlContext.sql("FROM src SELECT key, value").collect().foreach(println) 

в общем, я предлагаю вам загружать таблицы Hive с помощью искровой SQL и использовать все свои Hive запросы, но через Спарк API, SQL для.

Вы можете найти больше информации здесь: http://spark.apache.org/docs/1.2.0/sql-programming-guide.html

, что ответить на ваш вопрос?

С уважением,

+0

См. Эту ссылку: https://cwiki.apache.org/confluence/display/Hive/улей + на + искрового% 3A + + Начало работы –

0

Вы можете выполнить улей запросов на выполнение искрового engine.Hive имеет большое количество зависимостей, эти зависимости не включены в дистрибутив по умолчанию Спарк. Если зависимости Hive можно найти в пути к классам, Spark автоматически загрузит их.

Вы можете найти код здесь: spark-hive-example

Смежные вопросы