Я использую Spark на Hadoop и хочу знать, как Spark выделяет виртуальную память исполнителю.Как вычисляется виртуальная память в Spark?
В соответствии с YARN vmem-pmem он предоставляет виртуальную память в 2.1 раза.
Следовательно - если XMX 1 ГБ затем -> 1 ГБ * 2.1 = 2.1 ГБ выделяется контейнеру.
Как это работает на Spark? И верно ли утверждение ниже?
Если я дам Исполнителю памяти = 1 ГБ тогда
Общая виртуальная память = 1 Гб * 2,1 * spark.yarn.executor.memoryOverhead. Это правда?
Если нет, то как виртуальная память для исполнителя рассчитывается в Spark?
http://stackoverflow.com/questions/21005643/container-is-running-beyond-memory-limits. Надеюсь, это поможет вам – Backtrack
, пожалуйста, проверьте мой ответ? – Backtrack