2015-05-02 3 views
0

Я пытаюсь пользователя HIVEContext с SparkSQL, и когда я создаюSparkSQL с энцефалопатией

val hContext = new org.apache.spark.sql.hive.HiveContext(sc) 

Я понимаю, что улей не является членом spark.sql, когда я заглянул в documentation он говорит, что я следует использовать sbt/sbt -Phive assembly/assembly Но как я могу запустить это? Я не понимаю, что мне следует заменить?

+0

Вы загрузили сборку искры или скомпилировали ее из источника? – banjara

ответ

1

Чтобы получить поддержку улья, вам необходимо загрузить исходный код, а затем построить его с помощью sbt или maven. Вот список шагов, чтобы сделать так:

  1. Скачать источник Спарк от: Spark Downloads, убедитесь, что вы выберите «тип пакета» в качестве «исходного кода». Для получения консенсуса здесь есть прямая ссылка для скачивания Spark 1.3 source.
  2. После загрузки экстракта и компилировать с помощью maven, поскольку Maven является рекомендуемым способом строить движение вперед:

    tar xzf spark-[version].tgz 
    cd spark-[version] 
    ./make-distribution.sh --skip-java-test --tgz -Dhadoop.version=2.4.0 -Pyarn -Phive -Phive-thriftserver 
    
  3. Это создаст деготь мяч в корневой директории проекта, как spark-[version]-bin-2.4.0.tgz, который может быть легко отправлен кластер или извлечение на одной машине.
+0

Как скомпилировать с maven? – Lisa

+0

Я новичок, можете ли вы объяснить мне, где я могу установить свой код в этом новом проекте? – Lisa

+0

Собственно, 'mvn' уже является частью исходной загрузки (находится в' build/mvn'). Просто используйте 'make_distribution.sh', который позаботится об использовании встроенного двоичного файла mvn. Что вы подразумеваете под «установить мой код в этом новом проекте?» – Ashrith

Смежные вопросы