В тестовом сервере RedHat я установил hadoop 2.7, и я запустил Hive, Pig & Искры с проблемами. Но когда пытались получить доступ к метасторе Hive от Spark, у меня появились ошибки. Поэтому я подумал о том, чтобы положить улей-сайт. xml (После извлечения файла apache-hive-1.2.1-bin.tar.gz я просто добавляю $ HIVE_HOME в bashrc согласно учебнику, и все работает, кроме этой интеграции с Spark). На сайте Apache я обнаружил, что мне нужно ставить улей-site.xml как конфигурация metastore Я создал файл, как показано нижеКонфигурация хранилища с дерби
<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:derby://localhost:1527/metastore_db;create=true</value>
<description>JDBC connect string for a JDBC metastore</description>
</property>
</configuration>
Я поставил IP в качестве локального хоста, так как это единственный узел машины .После т hat Я не могу подключиться даже к Hive. Это ошибка бросания
Исключение из потока "main" java.lang.RuntimeException: java.lang.RuntimeException: Не удалось создать org.apache.hadoop.hive.ql. metadata.SessionHiveMetaStoreClient в org.apache.hadoop.hive.ql.session.SessionState.start (SessionState.java:522)
.... Вызванный: javax.jdo.JDOFatalDataStoreException: Не удается открыть тест подключение к данной базе данных. JDBC url = jdbc: derby: // localhost: 1527/metastore_db; create = true, username = APP. Прекращение пула соединений (установите lazyInit на true, если вы планируете запустить свою базу данных после своего приложения). Исходное исключение: ------ java.sql.SQLException: Не найдено подходящего драйвера для jdbc: derby: // localhost: 1527/metastore_db; create = true
Существует много журналов ошибок, указывающих на то же самое вещь . Если удалить улей-site.xml из улья папки конф работает без проблем .Can, кто указывает мне на правильный путь для конфигурации по умолчанию metastore Благодаря Anoop R
Вы можете попробовать установить команду echo $ CLASSPATH в сценарий куста. Но я пробовал все предложения по stackoverflow и т. Д. И получал такую же ошибку. Я собираюсь сдаться и попробовать Spark или Hbase или что-то еще. Вот .bashrc: 'export HIVE_HOME =/usr/local/hive/apache-hive-2.1.1-bin export PATH = $ HIVE_HOME/bin: $ PATH export DERBY_INSTALL =/usr/local/derby/db- котелок-10.13.1.1-бен экспорт DERBY_HOME = $ DERBY_INSTALL экспорт PATH = $ PATH: $ DERBY_HOME/бен экспорт HIVE_CONF_DIR = $ HIVE_HOME/конф экспорт CLASSPATH = $ CLASSPATH: $ DERBY_HOME/Библиотека/котелок.jar: $ DERBY_HOME/lib/derbytools.jar' –