Я создал таблицу в улье с помощью следующей команды:Выбор данных в Hadoop с Улей
CREATE TABLE tweet_table(
tweet STRING
)
ROW FORMAT
DELIMITED
FIELDS TERMINATED BY '\n'
LINES TERMINATED BY '\n'
вставить некоторые данные:
LOAD DATA LOCAL INPATH 'data.txt' INTO TABLE tweet_table
data.txt:
data1
data2
data3data4
data5
Команда select * from tweet_table
возвращается:
data1
data2
data3data4
data5
Но select tweet from tweet_table
дает мне:
java.lang.RuntimeException: java.lang.ArrayIndexOutOfBoundsException: 0
at org.apache.hadoop.hive.ql.exec.Utilities.getMapRedWork(Utilities.java:230)
at org.apache.hadoop.hive.ql.io.HiveInputFormat.init(HiveInputFormat.java:255)
at org.apache.hadoop.hive.ql.io.HiveInputFormat.pushProjectionsAndFilters(HiveInputFormat.java:381)
at org.apache.hadoop.hive.ql.io.HiveInputFormat.pushProjectionsAndFilters(HiveInputFormat.java:374)
at org.apache.hadoop.hive.ql.io.CombineHiveInputFormat.getRecordReader(CombineHiveInputFormat.java:540)
at org.apache.hadoop.mapred.MapTask.runOldMapper(MapTask.java:338)
at org.apache.hadoop.mapred.MapTask.run(MapTask.java:307)
at org.apache.hadoop.mapred.Child.main(Child.java:170)
Caused by: java.lang.ArrayIndexOutOfBoundsException: 0
at java.beans.XMLDecoder.readObject(XMLDecoder.java:250)
at org.apache.hadoop.hive.ql.exec.Utilities.deserializeMapRedWork(Utilities.java:542)
at org.apache.hadoop.hive.ql.exec.Utilities.getMapRedWork(Utilities.java:222)
... 7 more
FAILED: Execution Error, return code 2 from org.apache.hadoop.hive.ql.exec.MapRedTask
MapReduce Jobs Launched:
Job 0: Map: 1 HDFS Read: 0 HDFS Write: 0 FAIL
Total MapReduce CPU Time Spent: 0 msec
Подобно этому, если данные были сохранены в правильной таблице, но не в tweet
поле, почему?
удалить все знакие категории: –
Я создал таблицу: 'CREATE TABLE twidoop_db.tweet_table ( твит STRING ) \t ROW ФОРМАТ \t \t Разграниченный \t \t \t ЛИНИИ TERMINATED BY «\ n'' И я получил те же результаты, ту же ошибку. Когда я выполняю 'LOAD DATA ...', я получил строку: 'Таблица twidoop_db.tweet_table stats: [num_partitions: 0, num_files: 1, num_rows: 0, total_size: 31, raw_data_size: 0]' – Apaachee
означает 0 строк загружается в таблицу после операции загрузки –