2015-12-06 2 views
1

У меня есть искра, проект scala sbt с использованием искры. Мне нужно несколько создать HiveContexts, что не допускается встроенным дерби для искрового улья. Может ли кто-нибудь помочь мне с настройкой mysql в качестве метастора вместо derby, который является дефолтом по умолчанию. У меня нет фактического улья, установленного или искры. Я использую зависимость sbt от искры и улья.Установка MySQL как метастор для встроенного искрового улья

ответ

0

Copy улья site.xml файл в каталоге конф Спарк и изменить некоторые свойства в этом файле

<property> 
    <name>javax.jdo.option.ConnectionURL</name> 
    <value>jdbc:mysql://localhost:3306/metastore_db?createDatabaseIfNotExist=true</value> 
    <description>JDBC connect string for a JDBC metastore</description> 
</property> 

<property> 
    <name>javax.jdo.option.ConnectionDriverName</name> 
    <value>com.mysql.jdbc.Driver</value> 
    <description>Driver class name for a JDBC metastore</description> 
</property> 

<property> 
    <name>javax.jdo.option.ConnectionUserName</name> 
    <value>hive</value> 
    <description>username to use against metastore database</description> 
</property> 

<property> 
    <name>javax.jdo.option.ConnectionPassword</name> 
    <value>hive</value> 
    <description>password to use against metastore database</description> 
</property> 
+0

мой проект - проект sbt, в котором используется искровая баночка. В любом месте каталога нет. Попробовал создать каталог conf в корневом каталоге проекта, но без какого-либо эффекта. – Shakti

+0

Не в вашем проекте, перейдите в каталог конфигурации кластера, где находятся другие файлы conf, такие как spark-default.conf и spark-env.sh. Затем скопируйте файл hive-site.xml в этот каталог и измените свойства – Kaushal

+0

Я не использую кластер, а искровую банку. Других конфигурационных файлов нет. – Shakti

0

Шакти

Вы должны иметь конфигурационные файлы в пути к классам. Я использую хаоп, улей и искру с Intellij. В Intellij у меня есть файл:/usr/local/spark/conf /, file:/usr/local/hadoop/etc/hadoop/и файл:/usr/local/hive/conf/в моем пути к классу. Вы можете использовать следующую команду, чтобы напечатать во время выполнения путь к классу:

val cl = ClassLoader.getSystemClassLoader 
    cl.asInstanceOf[java.net.URLClassLoader].getURLs.foreach(println) 

Я надеюсь, что это поможет, если вы еще не нашли исправление.

Смежные вопросы