2016-12-04 3 views
0

Когда лямбда, переданная в операцию Spark RDD, ссылается на объекты за пределами ее области, она будет включать необходимый контекст для создания сериализованной задачи для распределенного выполнения. В следующем простом примере почему он решил сериализовать весь экземпляр OutClass, а не только множитель? Я подозревал, что множитель на самом деле является методом Get Scale под капотом, поэтому он должен включать ссылку класса. Объявление OuterClass расширяет Serializable, но оно вводит ненужные ограничения. Я бы очень признателен за то, чтобы он работал, не объявляя сериализуемым OuterClass.Сериализация и закрытие задач Spark

object ClosureTest { 
    def main(args: Array[String]): Unit = { 
    val sc = SparkContext.getOrCreate(new SparkConf().setMaster("local[2]").setAppName("test")) 
    println(new OuterClass(10).sparkSumProd(sc.parallelize(Seq(1,2,3)))) 
    } 
    class OuterClass(multiplier: Int) { 
    def sparkSumProd(data: RDD[Int]): Double = { 
     data.map{ 
     v => v * multiplier 
     }.sum() 
    } 
    } 
} 

Вот выход из SerializationDebugger Спарк в

Exception in thread "main" org.apache.spark.SparkException: Task not serializable 
    at org.apache.spark.util.ClosureCleaner$.ensureSerializable(ClosureCleaner.scala:298) 
    at org.apache.spark.util.ClosureCleaner$.org$apache$spark$util$ClosureCleaner$$clean(ClosureCleaner.scala:288) 
    at org.apache.spark.util.ClosureCleaner$.clean(ClosureCleaner.scala:108) 
    at org.apache.spark.SparkContext.clean(SparkContext.scala:2056) 
    at org.apache.spark.rdd.RDD$$anonfun$map$1.apply(RDD.scala:366) 
    at org.apache.spark.rdd.RDD$$anonfun$map$1.apply(RDD.scala:365) 
    at org.apache.spark.rdd.RDDOperationScope$.withScope(RDDOperationScope.scala:151) 
    at org.apache.spark.rdd.RDDOperationScope$.withScope(RDDOperationScope.scala:112) 
    at org.apache.spark.rdd.RDD.withScope(RDD.scala:358) 
    at org.apache.spark.rdd.RDD.map(RDD.scala:365) 
    at ClosureTest$OuterClass.sparkSumProd(ClosureTest.scala:14) 
    at ClosureTest$.main(ClosureTest.scala:10) 
    at ClosureTest.main(ClosureTest.scala) 
    at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) 
    at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62) 
    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) 
    at java.lang.reflect.Method.invoke(Method.java:498) 
    at com.intellij.rt.execution.application.AppMain.main(AppMain.java:147) 
Caused by: java.io.NotSerializableException: ClosureTest$OuterClass 
Serialization stack: 
    - object not serializable (class: ClosureTest$OuterClass, value: [email protected]) 
    - field (class: ClosureTest$OuterClass$$anonfun$sparkSumProd$1, name: $outer, type: class ClosureTest$OuterClass) 
    - object (class ClosureTest$OuterClass$$anonfun$sparkSumProd$1, <function1>) 
    at org.apache.spark.serializer.SerializationDebugger$.improveException(SerializationDebugger.scala:40) 
    at org.apache.spark.serializer.JavaSerializationStream.writeObject(JavaSerializer.scala:46) 
    at org.apache.spark.serializer.JavaSerializerInstance.serialize(JavaSerializer.scala:100) 
    at org.apache.spark.util.ClosureCleaner$.ensureSerializable(ClosureCleaner.scala:295) 
    ... 17 more 

ответ

0

Просто присвоение переменной уровня класса локальной переменной делает его работу.

object ClosureTest { 
    def main(args: Array[String]): Unit = { 
    val sc = SparkContext.getOrCreate(new SparkConf().setMaster("local[2]").setAppName("test")) 
    println(new OuterClass(10).sparkSumProd(sc.parallelize(Seq(1,2,3)))) 
    } 
    class OuterClass(multiplier: Int) { 
    def sparkSumProd(data: RDD[Int]): Double = { 
     val m = multiplier 
     data.map{ 
     v => v * m 
     }.sum() 
    } 
    } 
} 
Смежные вопросы