Я храню данные в Hadoop в соответствии с датой их создания, поэтому у меня есть несколько каталогов на HDFS, которые создаются на основе формата /data/{year}/{month}/{day}.
Я хочу загрузить эти данные в Hive (периодически) и создать соответствующие разделы. На данный момент я экспериментировал с несколькими подходами, как один нижеДанные о загрузке кустов из нескольких каталогов и динамическое создание разделов
CREATE EXTERNAL TABLE tablename (...)
PARTITIONED BY (year STRING, month STRING, day STRING)
LOCATION '/data';
ALTER TABLE tablename ADD PARTITION(year='2014', month='10', day='13') LOCATION '/data/2014/10/13';
, но при таком подходе я должен вручную создать каждый раздел с помощью команды ALTER. Есть ли способ автоматизировать и параметризовать этот процесс (и включить его в рабочий процесс) для динамической загрузки данных в разделы Hive для каждого из подкаталогов?
Проверьте, поможет ли здесь решение ... http://stackoverflow.com/questions/13148187/hive-loading-in-partitioned-table –