2016-09-15 3 views
0

Я новичок в Spark, и я пытаюсь отправить задание «быстрый запуск» из своего приложения. Я пытаюсь подражать автономному режиму, запустив master и slave на моем локальном хосте.Spark stand alone mode: Отправка заданий программным способом

object SimpleApp { 

    def main(args: Array[String]): Unit = { 

    val logFile = "/opt/spark-2.0.0-bin-hadoop2.7/README.md" 
    val conf = new SparkConf().setAppName("SimpleApp") 
    conf.setMaster("spark://10.49.30.77:7077") 
    val sc = new SparkContext(conf) 

    val logData = sc.textFile(logFile,2).cache(); 
    val numAs = logData.filter(line => line.contains("a")).count() 
    val numBs = logData.filter(line => line.contains("b")).count() 
    println("Lines with a: %s , lines with b: %s".format(numAs,numBs)) 

    } 

} 

Я запустил приложение Spark в своей IDE (IntelliJ).

Глядя на журналы (журналы на рабочей поверхности), кажется, что искра не может найти класс работы.

16/09/15 17:50:58 INFO MemoryStore: Block broadcast_1_piece0 stored as bytes in memory (estimated size 1912.0 B, free 366.3 MB) 
16/09/15 17:50:58 INFO TorrentBroadcast: Reading broadcast variable 1 took 137 ms 
16/09/15 17:50:58 INFO MemoryStore: Block broadcast_1 stored as values in memory (estimated size 3.1 KB, free 366.3 MB) 
16/09/15 17:50:58 ERROR Executor: Exception in task 0.0 in stage 0.0 (TID 0) 
java.lang.ClassNotFoundException: SimpleApp$$anonfun$1 
    at java.net.URLClassLoader$1.run(URLClassLoader.java:366) 
    at java.net.URLClassLoader$1.run(URLClassLoader.java:355) 
    at java.security.AccessController.doPrivileged(Native Method) 
    at java.net.URLClassLoader.findClass(URLClassLoader.java:354) 
    at java.lang.ClassLoader.loadClass(ClassLoader.java:425) 
    at java.lang.ClassLoader.loadClass(ClassLoader.java:358) 
    at java.lang.Class.forName0(Native Method) 
    at java.lang.Class.forName(Class.java:270) 

1. Это означает, что ресурсы задания (классы) не передаются на подчиненный узел?

2.Для автономного режима я должен отправлять задания, используя CLI «spark-submit»? Если да, то как отправить искры из приложения (например, webapp)

3. Также не связанный вопрос: я вижу в журналах, DriverProgram запускает сервер (порт 4040). Для чего это нужно? DriveProgram является клиентом, почему он запускает эту услугу?

16/09/15 17:50:52 INFO SparkEnv: Registering OutputCommitCoordinator 
16/09/15 17:50:53 INFO Utils: Successfully started service 'SparkUI' on port 4040. 
16/09/15 17:50:53 INFO SparkUI: Bound SparkUI to 0.0.0.0, and started at http://10.49.30.77:4040 

ответ

2

Вы должны либо установить пути ресурсов в SparkConf с использованием метода setJars или предоставить ресурсы в spark-submit команды с --jars опцией при работе с CLI.

Смежные вопросы