Я успешно установил и данные, импортированные из MySql в HDFS, но я не смог получить данные в Улье. соответствующие данные, импортированные из Mysql, находятся в Hdfs как формат, разделенный запятыми.Как перенести данные mysql в Hive с помощью sqoop2
Старые версии sqoop с использованием
sqoop import --connect jdbc:mysql://remote-ip/db --username xxx --password xxx --table tb --hive-import --hive-table foo.tb
В Sqoop2 я не мог найти вариант, чтобы установить улей параметры таблицы при создании задания или разъемы
Пожалуйста, помогите ...
Вы пробовали его искать. Первый результат с заголовком вопроса дал мне это http://gethue.tumblr.com/post/66348238493/hadoop-tutorials-series-ii-8-how-to-transfer-data – Satya
да .. я могу переместить данные в HDFS. но как мы укажем таблицу Hive [если ее нет, создайте таблицу] в кластере? в старой версии sqoop мы можем импортировать с помощью sqoop import --connect jdbc: mysql: // remote-ip/db --username xxx --password xxx --table tb --hive-import --hive-table foo .tb , но я не мог получить способ сделать то же самое в «sqoop2»! – user2959221
http://docs.aws.amazon.com/ElasticMapReduce/latest/DeveloperGuide/EMR_Interactive_Hive.html – Satya