2016-12-07 2 views
3

Я запускаю Spark Job, написанный в Scala на EMR, и stdout каждого исполнителя заполняется сбоями распределения GC.Оптимизация GC на кластере EMR

2016-12-07T23:42:20.614+0000: [GC (Allocation Failure) 2016-12-07T23:42:20.614+0000: [ParNew: 909549K->432K(1022400K), 0.0089234 secs] 2279433K->1370373K(3294336K), 0.0090530 secs] [Times: user=0.11 sys=0.00, real=0.00 secs] 
2016-12-07T23:42:21.572+0000: [GC (Allocation Failure) 2016-12-07T23:42:21.572+0000: [ParNew: 909296K->435K(1022400K), 0.0089298 secs] 2279237K->1370376K(3294336K), 0.0091147 secs] [Times: user=0.11 sys=0.01, real=0.00 secs] 
2016-12-07T23:42:22.525+0000: [GC (Allocation Failure) 2016-12-07T23:42:22.525+0000: [ParNew: 909299K->485K(1022400K), 0.0080858 secs] 2279240K->1370427K(3294336K), 0.0082357 secs] [Times: user=0.12 sys=0.00, real=0.01 secs] 
2016-12-07T23:42:23.474+0000: [GC (Allocation Failure) 2016-12-07T23:42:23.474+0000: [ParNew: 909349K->547K(1022400K), 0.0090641 secs] 2279291K->1370489K(3294336K), 0.0091965 secs] [Times: user=0.12 sys=0.00, real=0.00 secs] 

Я читаю несколько ТБ-данных (в основном строка), поэтому я боюсь, что постоянная GC будет замедлять время обработки.
Я был бы признателен за любые указания относительно того, как понять это сообщение и как оптимизировать GC, чтобы он потреблял минимальное время процессора.

ответ

4

Ошибка распределения является обычной и наиболее распространенной причиной запуска цикла GC.

Журналы сообщают, что GC происходит один раз в секунду и занимает около 10 мс, то есть 1% времени. ИМО, здесь нечего оптимизировать.

Смежные вопросы