У меня есть установка улья 0.13 и созданы пользовательские базы данных. У меня есть искры 1.1.0 кластера с одним узлом, построенного с использованием опции mvn -hive. Я хочу получить доступ к таблицам в этой базе данных в искровом приложении, используя hivecontext. Но hivecontext всегда читает локальный метастар, созданный в искровом каталоге. Я скопировал hive-site.xml в каталоге spark/conf.
Нужно ли мне делать какую-либо другую конфигурацию?Подходящие таблицы улья в искры
ответ
Шаг 1: установки SPARK с последней версией ....
$ cd $SPARK_Home; ./sbt/sbt -Phive assembly
$ cd $SPARK_Home; ./sbt/sbt -Phivethriftserver assembly
Выполнив это, вы будете загружать несколько файлов фляги и bydefault он будет добавлен нет необходимости добавлять ....
Шаг 2:
Копирование hive-site.xml
из кластера Улья к вашему $SPARK_HOME/conf/dir
и редактировать файл XML и добавить эти свойства в этот файл, который приведен ниже:
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://MYSQL_HOST:3306/hive_{version}</value>
<description>JDBC connect string for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
<description>Driver class name for a JDBC metastore/description>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>XXXXXXXX</value>
<description>Username to use against metastore database/description>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>XXXXXXXX</value>
<description>Password to use against metastore database/description>
</property>
Шаг 3: Загрузите разъем MYSQL JDBC и добавьте его в SPARK CLASSPATH. Запустите эту команду bin/compute-classpath.sh
и добавьте следующую строку для следующего скрипта.
CLASSPATH=”$CLASSPATH:$PATH_TO_mysql-connector-java-5.1.10.jar
Как извлечь данные из энцефалопатии в СПАРК ....
Шаг 1:
Start всех Deamons по следующей команде ....
start-all.sh
Шаг 2:
Запустите сервер улавливания улей 2 следующей командой ....
hive --service hiveserver2 &
Шаг 3:
Start искрой сервер с помощью следующей команды ....
start-spark.sh
И, наконец, проверить, является ли запущены эти или нет, проверив с помощью следующей команды ....
RunJar
ResourceManager
Master
NameNode
SecondaryNameNode
Worker
Jps
JobHistoryServer
DataNode
NodeManager
Шаг 4:
Запустите мастер с помощью следующей команды ....
./sbin/start-master.sh
Чтобы остановить мастер использовать следующую команду .....
./sbin/stop-master.sh
Шаг 5:
Открыть новый терминал ....
Start Билайна по следующему пути ....
[email protected]:/usr/local/hadoop/hive/bin$ beeline
После того, как он запросит ввод ... Передайте вход, который указан ниже ....
!connect jdbc:hive2://localhost:10000 hadoop "" org.apache.hive.jdbc.HiveDriver
После этого установите SPARK с помощью следующих команд ....
Примечание: установить эти настройки на конф файле, нет необходимости работать всегда ....
set spark.master=spark://localhost:7077;
set hive.execution.engines=spark;
set spark.executor.memory=2g; // set the memory depends on your server
set spark.serializer=org.apache.spark.serializer.kryoSerializer;
set spark.io.compression.codec=org.apache.spark.io.LZFCompressionCodec;
После этого запрашивает ввод .... Передайте запрос, который вы хотите получить данные .... и откройте браузер и проверьте URL-адрес с помощью следующей команды localhost: 8080 В URL-адресе вы можете увидеть Запущенные задания и Завершенные задания. ...
- 1. Невозможно запросить таблицы улья из искры
- 2. Сортировка набора данных искры/набора результатов улья
- 3. Вставьте в таблицу улья из искры sql
- 4. Искры с пользовательскими привязками для улья
- 5. Управление данными таблицы улья
- 6. Оптимизация экспорта таблицы улья
- 7. Установка Искры в качестве механизма выполнения по умолчанию для улья
- 8. Таблицы улья необходимы для метаданных
- 9. Каково значение внешней таблицы улья?
- 10. Ошибка улья - выберите * из таблицы;
- 11. Данные таблицы улья с MapReduce
- 12. Не найдено подходящего драйвера при запуске улья и искры
- 13. Обновить один стол для улья из другого таблицы улья
- 14. Как удалить^M в строке таблицы улья?
- 15. Передача заголовка таблицы в преобразовании улья
- 16. Разделить для таблицы улья в TDCH
- 17. Внешние таблицы улья, требующие этапа загрузки
- 18. Создание таблицы улья для динамических схем
- 19. Удалить все разделы из таблицы улья?
- 20. Влияние неоднократного создания и удаления таблицы улья
- 21. Просто получить имена столбцов из улья таблицы
- 22. Запустить сценарий преобразования улья на подмножествах таблицы
- 23. наборных размер случайные выборок из улья таблицы
- 24. Стиль улья SQL-код: промежуточные таблицы?
- 25. Где находятся настройки таблицы улья/базы данных?
- 26. как выбрать конкретную дату из таблицы улья
- 27. Месторасположение улья
- 28. дрель, не отображающая таблицы улья или hbase
- 29. Определение таблицы улья - разделитель нескольких пространств
- 30. Выберите большое число идентификаторов из улья таблицы
Спасибо Sree за помощь. Я видел ваш пост совсем недавно .... –
В случае CDH (Cloudera Quick start VM) - просто скопируйте hive-site.xml в $ SPARK_HOME (/ etc/alternatives/spark-conf) и добавьте банку MySQL в путь к классам на /etc/alternatives/spark-conf/spark-env.sh. После этого сделайте «CTRL + ALT + DEL» для VM, и он будет работать. – Ashu