2015-04-08 3 views
2

Я пытаюсь код, предложенный здесь: http://spark.apache.org/docs/1.2.1/mllib-ensembles.html#classificationScala: объект апач не является членом пакета орг

с помощью консоли Scala (Scala версия = Scala код бегуна версии 2.10.4) и получить следующее сообщение об ошибке:

scala> import org.apache.spark.mllib.tree.RandomForest 
<console>:8: error: object apache is not a member of package org 
      import org.apache.spark.mllib.tree.RandomForest 
        ^

Я последовал совет от here и пытался построить простое автономное приложение, но столкнулась с другой проблемой:

[email protected]:~/simple# sbt package 
[info] Set current project to Simple Project (in build file:/root/simple/) 
[info] Updating {file:/root/simple/}default-c5720e... 
[info] Resolving org.scala-lang#scala-library;2.10.4 ... 
[info] Resolving org.apache.spark#spark-core_2.10.4;1.2.0 ... 
[warn] module not found: org.apache.spark#spark-core_2.10.4;1.2.0 
[warn] ==== local: tried 
[warn] /root/.ivy2/local/org.apache.spark/spark-core_2.10.4/1.2.0/ivys/ivy.xml 
[warn] ==== public: tried 
[warn] http://repo1.maven.org/maven2/org/apache/spark/spark-core_2.10.4/1.2.0/spark-core_2.10.4-1.2.0.pom 
[warn] :::::::::::::::::::::::::::::::::::::::::::::: 
[warn] ::   UNRESOLVED DEPENDENCIES   :: 
[warn] :::::::::::::::::::::::::::::::::::::::::::::: 
[warn] :: org.apache.spark#spark-core_2.10.4;1.2.0: not found 

Может ли кто-нибудь посоветовать, что я мог бы попробовать?

+0

вы не используете искры оболочки! – eliasah

+0

@eliasah Я получаю ту же ошибку в искровой оболочке. – tucson

+0

Вы загрузили предварительно скомпилированный дистрибутив? консоль scala определенно не работает, если вы не добавите искровые банки в консоль при запуске – eliasah

ответ

2

Подробные инструкции см. В разделе this post как написать самоиспользованное приложение Spark с использованием SBT в Scala. В файле конфигурации sbt вы должны указать зависимые библиотеки.

libraryDependencies ++= Seq("org.apache.spark" % "spark-core_2.10" % "1.2.1", 
"org.apache.spark" % "spark-mllib_2.10" % "1.2.1") 

Затем скомпилировать, используя следующую команду

sbt package 
Смежные вопросы