В моем файле ввода при создании Jar для моего задания MapReduce я использую команду Hadoop-local. Я хотел знать, был ли способ, а не конкретно указывать путь для каждого файла в моей папке ввода, который будет использоваться в задании MapReduce, могу ли я просто указать и передать все файлы из моей папки ввода. Это связано с тем, что содержимое и количество файлов могут измениться из-за характера заданий MapReduce, которые я пытаюсь настроить, и поскольку я не знаю конкретного количества файлов, кроме только содержимого этих файлов, есть способ передать все файлы из входной папки в мою программу MapReduce, а затем перебрать каждый файл, чтобы вычислить определенную функцию, которая затем отправит результаты в редуктор. Я использую только одну программу Map/Reduce, и я кодирую на Java. Я могу использовать команду hadoop-moonshot, но сейчас я работаю с хаосом-локальным.Hadoop, MapReduce - несколько путей ввода/вывода
Спасибо.
Если указать каталог HDFS в работе вместо файла, то все файлы должны быть прочитаны. Не могли бы вы [изменить] ваш вопрос включить команду, которую вы используете? Может быть, какой-то код в [mcve], также? –
Спасибо @ cricket_007, возможно, вы могли бы привести пример вызова в каталог HDFS, а не один файл. Кроме того, как у меня будет отдельный выходной файл для каждого входа. Я предполагаю, что это с использованием класса MultipleOutput каким-то образом, но я не вижу, как на данный момент. –
Я не могу вспомнить, как выводить несколько файлов, но сам вывод mapreduce должен быть в одном каталоге. Что касается ввода справочника, то в примере [пример номера слова] (https://hadoop.apache.org/docs/current/hadoop-mapreduce-client/hadoop-mapreduce-client-core/MapReduceTutorial.html#Usage) читаются два файла из одного directory –