Я пытаюсь настроить и запустить свой первый запрос Spark после official example. На наших локальных компьютерах мы уже установили последнюю версию пакета Datastax Enterprise (на данный момент это 4,7).Начало работы с Spark (Datastax Enterprise)
Я делаю все в точности по документации, я приложил последнюю версию dse.jar к моему проекту, но ошибки приходит прямо с самого начала:
Вот отрывок из их примера
SparkConf conf = DseSparkConfHelper.enrichSparkConf(new SparkConf())
.setAppName("My application");
DseSparkContext sc = new DseSparkContext(conf);
Теперь кажется, что класс DseSparkContext
имеет только пустой конструктор по умолчанию.
Сразу после этих строк приходит следующий
JavaRDD<String> cassandraRdd = CassandraJavaUtil.javaFunctions(sc)
.cassandraTable("my_keyspace", "my_table", .mapColumnTo(String.class))
.select("my_column");
И здесь возникает главная проблема, CassandraJavaUtil.javaFunctions(sc)
метод принимает только SparkContext
на входе и не DseSparkContext
(SparkContext
и DseSparkContext
совершенно разные классы и один не наследуется от другого).
Я предполагаю, что документация не в курсе с realese версии, и если кто-нибудь встречал эту проблему, прежде чем, пожалуйста, поделитесь со мной своим опытом,
Спасибо!
FYI, это все еще ошибка в документации. – Ztyx
Это больше не требуется @Zytx я обновлю это позже (для dse 4.7+) – RussS
На самом деле я не уверен, позвольте мне дважды проверить с помощью api – RussS