У меня есть файлСохранить файл изображения в HDFS с помощью Спарк
image = JavaSparkContext.binaryFiles("/path/to/image.jpg");
изображения Я хотел бы, чтобы обработать затем сохранить бинарную информацию, используя искру в HDFS
Что-то вроде:
image.saveAsBinaryFile("hdfs://cluster:port/path/to/image.jpg")
Это возможно, не говоря «как просто», просто можно это сделать? если да, то как бы вы это сделали. Попытка сохранить один к одному, если это возможно, как в отношении продолжения и типа, поэтому, если я напрямую загружу с помощью командной строки hdfs, он все равно будет жизнеспособным файлом изображения.
Да, мое изображение является байтом [] Я добавил немного к моему первоначальному вопросу, сохраняя расширения и тип. – JRhino
Это один из вариантов, на который я смотрел, но для этого нужны библиотеки hadoop. В качестве задачи я пытаюсь заставить Spark написать файл. Я попытался использовать ваш первый метод и имел успех (предоставленный без возможности прямой загрузки). – JRhino
Я не уверен, что означало «require hadoop libraries». На самом деле зависимость искрового ядра неявно импортирует зависимость hadoop-client. Если все пойдет хорошо, вы сможете импортировать org.apache.hadoop.fs. {FileSystem, Path} без каких-либо изменений в вашем pom. –