Hadoop ПРЯЖА Cluster Performance Tuning
Я хотел бы знать несколько параметров, чтобы ускорить работу Spark, на моей ПРЯЖЕ кластере.
У меня есть следующие конфигурации Spark/YARN на месте, но я не доволен скоростью выполнения. У меня много неиспользуемых ресурсов и памяти.
Свечи конфиги:
- spark.yarn.am.cores = 2
- spark.executor.memory = 5g
- spark.executor.cores = 8
ПРЯЖИ конфиги:
- yarn.nodemanager.resource.memory-mb = 31744
- yarn.nodemanager.resource.cpu-vcores = 15
- yarn.scheduler.maximum-allocation-mb = 31744
Из образа,
- на узле 3 & 5, почему использование 6GB из 2gb.
- памяти на узле 1,2,4,5,6 не используются на всех
Moreso, я хочу, чтобы иметь возможность раскрутить несколько контейнеров на каждом узле кластера.
Помогите оценить очень.
Ваше текущее приложение прося только 3 контейнера от YARN. Попытайтесь увеличить количество исполнителей искры с использованием --num-исполнителей 3, также может быть полезно настроить память исполнителей и ядра. Помните о том, что следующие шаги должны увеличить использование ресурсов, но вам нужно понять, как Spark работает для настройки производительности вашего приложения. –