2013-11-19 2 views
1

Я успешно установил и данные, импортированные из MySql в HDFS, но я не смог получить данные в Улье. соответствующие данные, импортированные из Mysql, находятся в Hdfs как формат, разделенный запятыми.Как перенести данные mysql в Hive с помощью sqoop2

Старые версии sqoop с использованием

sqoop import --connect jdbc:mysql://remote-ip/db --username xxx --password xxx --table tb --hive-import --hive-table foo.tb

В Sqoop2 я не мог найти вариант, чтобы установить улей параметры таблицы при создании задания или разъемы

Пожалуйста, помогите ...

+0

Вы пробовали его искать. Первый результат с заголовком вопроса дал мне это http://gethue.tumblr.com/post/66348238493/hadoop-tutorials-series-ii-8-how-to-transfer-data – Satya

+0

да .. я могу переместить данные в HDFS. но как мы укажем таблицу Hive [если ее нет, создайте таблицу] в кластере? в старой версии sqoop мы можем импортировать с помощью sqoop import --connect jdbc: mysql: // remote-ip/db --username xxx --password xxx --table tb --hive-import --hive-table foo .tb , но я не мог получить способ сделать то же самое в «sqoop2»! – user2959221

+0

http://docs.aws.amazon.com/ElasticMapReduce/latest/DeveloperGuide/EMR_Interactive_Hive.html – Satya

ответ

2

В настоящее время Sqoop2 не имеет интеграции с Hive и может импортировать данные только в HDFS. Вы можете загрузить их в Hive вручную оттуда (используя команду LOAD DATA). Или вы можете продолжать использовать Sqoop1 в настоящее время.

+0

спасибо, sqoop1 совместим с hadoop 2.2.0? – user2959221

+0

Да, Sqoop 1.x будет работать на Hadoop 2.2.0. –

Смежные вопросы