Ниже приведен код, который я использую для подключения к локальной базе данных оракула из программы apache spark java, но я становлюсь ниже ошибки.Ошибка в подключении базы данных оракула к искры apache с использованием java
Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/spark/Logging
at java.lang.ClassLoader.defineClass1(Native Method).
Вот мой код.
public static void main(String[] args) {
JavaSparkContext sc = new JavaSparkContext(new SparkConf().setAppName("SparkJdbcDs").setMaster("local[*]"));
SQLContext sqlContext = new SQLContext(sc);
Map<String, String> options = new HashMap<String, String>();
options.put("url", "jdbc:oracle:thin:@//192.168.2.85:1521/stage");
options.put("dbtable", "AD_TABLES.brands");
DataFrame jdbcDF = sqlContext.read().format("jdbc").options(options).load();
}
Ниже представлен файл POM.
<dependency>
<groupId>com.databricks</groupId>
<artifactId>spark-csv_2.11</artifactId>
<version>1.5.0</version>
</dependency>
<dependency>
<groupId>com.univocity</groupId>
<artifactId>univocity-parsers</artifactId>
<version>2.3.0</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-mllib_2.11</artifactId>
<version>2.0.1</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.11</artifactId>
<version>2.0.1</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-sql_2.11</artifactId>
<version>1.6.1</version>
</dependency>
<dependency>
<groupId>com.oracle</groupId>
<artifactId>ojdbc6</artifactId>
<version>11.2.0.3</version>
</dependency>
вы можете положить трассировку стека здесь. Кажется, что какой-то класс, возможно, отсутствует в классе, установленном вами во время работы. –
Возможный дубликат [Разрешение исключения класса ClassNotFoundException/объект x не является членом пакета y в Apache Spark] (http://stackoverflow.com/questions/41383460/resolving-classnotfoundexception-exceptions-object-x-is-not-a -member-of-packag) – user7337271