2015-06-19 4 views
1

Я бегу следующий код (а содержит около 10000 строк):Java Спарк просачивания в памяти ошибок на карте OutOfMemoryError

IndexedRowMatrix qTmp = new IndexedRowMatrix(a.rows()); 
IndexedRowMatrix qTmpT = qTmp.toCoordinateMatrix().transpose().toIndexedRowMatrix(); 

Я получаю следующее сообщение об ошибке:

15/06/19 10:08:52 INFO ExternalAppendOnlyMap: Thread 66 spilling in-memory map of 24.8 MB to disk (1 time so far) 
15/06/19 10:08:54 INFO ExternalAppendOnlyMap: Thread 66 spilling in-memory map of 24.8 MB to disk (2 times so far) 
15/06/19 10:08:57 INFO ExternalAppendOnlyMap: Thread 66 spilling in-memory map of 24.8 MB to disk (3 times so far) 
15/06/19 10:09:02 ERROR Executor: Exception in task 0.0 in stage 9.0 (TID 9) 
java.lang.OutOfMemoryError: Java heap space 

Я попытался и с различными параметрами:

SparkConf conf = new SparkConf(); 
conf.set("spark.serializer", "org.apache.spark.serializer.KryoSerializer"); 
conf.setAppName("test"); 
conf.setMaster("local[2]"); 
conf.set("spark.executor.memory", "6g"); 
conf.set("spark.driver.maxResultSize", "1g"); 
conf.set("spark.shuffle.spill", "false"); 
conf.set("spark.storage.memoryFraction", "0.3"); 
conf.set("spark.eventLog.enabled", "false"); 
conf.set("driver-memory", "4g")`; 
JavaSparkContext sc = new JavaSparkContext(conf); 

Есть ли причина, по которой я постоянно получаю эту ошибку?

+0

Работа с eclipse? –

ответ

0

Вы должны запустить приложение с переопределенными параметрами java.

Запуск программы с -Xms = [размер] -Xmx -XX: MaxPermSize = [размер] -XX: MaxNewSize = [размер]

Например -

-Xms512m -Xmx1152m -XX: MaxPermSize = 256m -XX: MaxNewSize = 256m

Смежные вопросы