Я использую Scala для создания и запуска приложения Spark локально.Spark application throws javax.servlet.FilterRegistration
Мой build.sbt:
name : "SparkDemo"
version : "1.0"
scalaVersion : "2.10.4"
libraryDependencies += "org.apache.spark" %% "spark-core" % "1.2.0" exclude("org.apache.hadoop", "hadoop-client")
libraryDependencies += "org.apache.spark" % "spark-sql_2.10" % "1.2.0"
libraryDependencies += "org.apache.hadoop" % "hadoop-common" % "2.6.0" excludeAll(
ExclusionRule(organization = "org.eclipse.jetty"))
libraryDependencies += "org.apache.hadoop" % "hadoop-mapreduce-client-core" % "2.6.0"
libraryDependencies += "org.apache.hbase" % "hbase-client" % "0.98.4-hadoop2"
libraryDependencies += "org.apache.hbase" % "hbase-server" % "0.98.4-hadoop2"
libraryDependencies += "org.apache.hbase" % "hbase-common" % "0.98.4-hadoop2"
mainClass in Compile := Some("demo.TruckEvents")
Во время выполнения я получаю исключение:
Исключение в потоке "основной" java.lang.ExceptionInInitializerError во время вызывания ... Вызванный: java.lang.SecurityException: класс Информация о подписчике "javax.servlet.FilterRegistration" не соответствует подписчик информации, относящейся к другим классам в той же упаковке
Исключение срабатывает здесь:
val sc = new SparkContext("local", "HBaseTest")
Я использую плагин IntelliJ Scala/SBT.
Я видел, что у других людей также есть эта проблема suggestion solution. Но это сборка maven ... Не так ли здесь sbt? Или любое другое предложение, как я могу решить эту проблему?
На всякий случай, если кто-то заботится, этот подход работает и с maven. – hba