У меня есть автономная программа с Spark, которую я хочу получить результаты работы, используя другое количество ядер. Что бы я ни пытался, я получаю одинаковые значения времени выполнения!Как изменить количество ядер, используемых в коде?
Это часть кода, который я устанавливаю количество ядер до создания контекста Spark:
System.setProperty("spark.cores.max","96")
Общее количество ядер, что у меня есть 252.
Возможно, вам стоит показ нам, какую рутину вы используете для синхронизации исполнения вашей программы. Многие из вопросов этого пользователя, спрошенные на SO, оказываются результатом неправильного измерения, а не ошибочного параллельного выполнения. –
Я запускаю автономное приложение, которое после завершения самой программы дает общее время работы. Я не использую ничего для измерения! и я уверен, что программа работает правильно. время запуска для 252 ядер составляет 270 секунд. – Rubbic
Вы пробовали -Dspark.cores.max = 96? Тогда вы уверены, что перед запуском jvm значение устанавливается. В коде проверьте 'String oldValue = System.setProperty ("spark.cores.max", "96") 'и проверьте его. Может быть, искра исправила его для вас. –