файл с именем records.txt от локального до HDFS можно скопировать с помощью следующей командыHadoop Поместите команду для двух файлов
hadoop dfs -put /home/cloudera/localfiles/records.txt /user/cloudera/inputfiles
Используя вышеприведенную команду файл records.txt будет скопирована в HDFS с то же имя.
Но я хочу, чтобы хранить два файла (records1.txt и demo.txt) в HDFS
Я знаю, что мы можем использовать что-то вроде ниже
hadoop dfs -put /home/cloudera/localfiles/records* /user/cloudera/inputfiles
, но есть ли команда, которая поможет нам хранить один или два файла с разными именами для копирования в hdf?
Хорошо .. это то, что .. Ваше решение работает –