У нас есть файл HDFS, записанный как каскадная последовательность Файлы, которые мы хотим обработать с помощью Apache Spark. Я попытался с помощью JavaPairRDD читать ключевые пары значений следующим образом:Чтение файла каскадной последовательности в Spark
JavaPairRDD<String, String> input = ctx.sequenceFile("file-path", String.class, String.class);
На выполнении этой работы я получаю эту следующую ошибку:
java.io.IOException: Could not find a deserializer for the Key class:
'cascading.tuple.Tuple'.
Please ensure that the configuration 'io.serializations' is properly configured,
if you're using custom serialization.
Я новичок в использовании Apache Спарк. Я попытался установить класс сериализации в объекте искрового контекста, но я все еще получаю эту ошибку. Я не нашел ни одного примера os с использованием каскадного файла последовательности в Spark. Любая помощь будет оценена по достоинству.