Я начинаю играть с Spark 2.0.1. Новый API Dataset очень чист, но у меня проблемы с очень простыми операциями.Spark 2.0.1 java.lang.NegativeArraySizeException
Возможно, мне что-то не хватает, надеюсь кто-то может помочь.
Эти инструкции
SparkConf conf = new SparkConf().setAppName("myapp").setMaster("local[*]");
SparkSession spark = SparkSession
.builder()
.config(conf)
.getOrCreate();
Dataset<Info> infos = spark.read().json("data.json").as(Encoders.bean(Info.class));
System.out.println(infos.rdd().count());
производят
java.lang.NegativeArraySizeException
и фатальную ошибку, обнаруженную JVM (1.8).
Работа с данными с использованием набора данных api (т. Е. Выбор, подсчет объекта информации) работает нормально.
Как переключаться между набором данных и RDD?
Благодарим вас за ответ. Проблема в том, что spark.read() и другие инструкции являются библиотечными вызовами, т.е. я только что использовал библиотеку без специального кода, кроме Info.class. – besil
вы можете вставить более подробную информацию, такую как ваш json, полная трассировка стека ошибок и объект Info model и т. Д. ... –