Я работаю с Spark 2.0, задание начинается с сортировки входных данных и сохранения их вывода на HDFS.Spark 2.0 memory fraction
Я получал ошибки памяти, решение заключалось в том, чтобы увеличить значение «spark.shuffle.memoryFraction» от 0.2 до 0.8, и это решило проблему. Но в документации я обнаружил, что это устаревший параметр.
Как я понимаю, он был заменен на «spark.memory.fraction». Как изменить этот параметр с учетом сортировки и хранения на HDFS?