Выполняется ли количество исполнителей как фактор количества разделов. Поскольку я получаю потерю данных при наличии двух исполнителей и 25 разделов.Spark --num-исполнители и количество разделов
1
A
ответ
3
Совсем нет! Количество разделов полностью не зависит от количества исполнителей (хотя для производительности вы должны хотя бы установить количество разделов как количество ядер на каждый исполнитель за раз число исполнителей, чтобы вы могли использовать полный параллелизм!).
Возможно, вы сможете оставить свой код, чтобы мы могли определить причину потери данных ...
Смежные вопросы
- 1. Количество разделов Spark Dataframe
- 2. Как Spark вычисляет количество разделов?
- 3. Spark: увеличить количество разделов, не вызывая перетасовки?
- 4. hadoop for spark: Увеличить количество разделов
- 5. Spark 2.0 читает csv количество разделов (PySpark)
- 6. Scala Spark RDD текущее количество разделов
- 7. Несколько разделов в Spark RDD
- 8. spark mapPartitionsWithIndex обработка пустых разделов
- 9. Предопределяющее количество разделов RDD
- 10. Изменение разделов таблицы Hive, уменьшая количество разделов
- 11. Ограничить количество разделов конфигурации
- 12. Spark - поиск пространственных данных - обрезка разделов
- 13. Что такое «количество разделов» и «диапазон» массива?
- 14. Разделите и подсчитайте количество разделов подряд
- 15. Имя и количество разделов на жестком диске
- 16. Спарк dataframe выберите операцию и количество разделов
- 17. Установить количество разделов в CassandraTable
- 18. Можно ли подсчитать количество разделов?
- 19. Получить текущее количество разделов DataFrame
- 20. Количество разделов в виде коллекции
- 21. Пролог, количество разделов между точками
- 22. рассчитать количество разделов в коллекции.
- 23. 'Неверное обновление: неверное количество разделов
- 24. Количество разделов до 10^6
- 25. Как рассчитать количество разделов n?
- 26. Лучший способ извлечь количество разделов?
- 27. Укажите количество разделов в статье
- 28. Oracle: количество разделов 2^n
- 29. Обрезка разделов Spark SQL для кэшированной таблицы
- 30. Обработка пользовательских разделов Spark (1.6.1) DataFrames