Я также следовал примеру в первом документе, который вы связали. Вы заметите, что в разделе «Предварительные требования» шаг № 2 требует, чтобы вы создали пример в качестве проекта Maven. В шаге 3 перечислены четыре зависимости, которые необходимо добавить в проект. Два из этих зависимостей являются специфическими для искрового Connector:
- com.datastax.spark: искровым Cassandra-connector_2.10: 1.0.0-RC4
- com.datastax.spark: искровым Cassandra-разъем -java_2.10: 1.0.0-rc4
в основном, раздел "зависимости" от pom.xml
для моих Спарк проектов выглядит следующим образом:
<dependencies>
<dependency>
<groupId>com.datastax.spark</groupId>
<artifactId>spark-cassandra-connector_2.10</artifactId>
<version>1.1.0-alpha2</version>
</dependency>
<dependency>
<groupId>com.datastax.spark</groupId>
<artifactId>spark-cassandra-connector-java_2.10</artifactId>
<version>1.1.0-alpha2</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.10</artifactId>
<version>1.1.0</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-streaming_2.10</artifactId>
<version>1.1.0</version>
</dependency>
</dependencies>
Дважды проверьте, что ваш pom.xml
имеет эти зависимости, а затем вызывает Maven для локального распространения библиотек Spark Connector. Это работает для меня:
cd workspace/sparkTest2
mvn package
Смотрите это: http://stackoverflow.com/questions/27323426/spark-saving-javardd-to-cassandra –