Я бегу pyspark
в моей локальной машине, и я хочу, чтобы ограничить количество используемых ядер и использованной памяти (я 8 ядер и 16Гб памяти)Как ограничить pyspark RESSOURCES
я не делаю знаю, как это сделать, я попытался добавить эти строки в свой код, но процесс все еще жадный.
from pyspark import SparkContext, SparkConf
conf = (SparkConf().setMaster("local[4]")
.set("spark.executor.cores", "4")
.set("spark.cores.max", "4")
.set('spark.executor.memory', '6g')
)
sc = SparkContext(conf=conf)
rdd = sc.parallelize(input_data, numSlices=4)
map_result = rdd.map(map_func)
map_result.reduce(reduce_func)
Почему конфеты не применяются?