Я знаю, что существует известная проблема с разделителями при сохранении таблицы в csv (или другом текстовом файле) в Hive. Поэтому мне интересно, если вы, ребята, поможете мне обойти это.Экспорт таблицы hive в csv в hdfs
У меня есть существующая таблица (таблица A), и я хотел бы сохранить ее в формате csv в hdfs. Из чтения других ответов я считаю, что мне придется сначала создать внешнюю таблицу (но я не уверен, как все это будет выглядеть).
Может ли кто-нибудь помочь?
Лично я просто использовал 'insert overwrite directory' и имел файл с разделителем' \ 001'. Но если вы * должны иметь csv, я думаю, что вам лучше всего передать запрос локальному .csv, а затем 'hadoop fs -put'-ing в hdfs, который описан здесь http://stackoverflow.com/questions/18129581/how-do-i-output-the-results-of-a-hiveql-query-to-csv – gobrewers14
Я хочу, чтобы избежать сохранения такого большого файла в локальном каталоге, если это возможно.Моя проблема в том, что мне тогда нужно загрузить файл в R, и для этого вы обычно указываете разделитель, не знаете, как это будет работать (или если оно будет работать) с невидимым символом. – Laura
Я загружаю данные из hdfs в искровую строку и указываю разделитель как '' \ 001 "'. У меня никогда не было (причины) импортировать файл из HDFS в R, но я предполагаю, что он может использовать любой разделитель, если он указан правильно. – gobrewers14