В большом задании обработки данных функция «fold» имеет более низкую вычислительную производительность по сравнению с функцией «уменьшить»?Spark Fold vs Уменьшить производительность?
Например, у меня есть следующие две функции:
array1.indices.zip(array1).map(x => x._1 * x._2).reduce(_ + _)
array1.indices.zip(array1).map(x => x._1 * x._2).fold(0.0) {_ + _}
array1 очень огромный массив рдд. эта функция имеет более высокую вычислительную производительность, дающую ту же настройку кластеризации.
См. [Это] (http://stackoverflow.com/a/7764875/42188) ответ. Не было бы никакой разницы в производительности. – muhuk
Возможный дубликат [различие между foldLeft и reduceLeft в Scala] (http://stackoverflow.com/questions/7764197/difference-between-foldleft-and-reduceleft-in-scala) – muhuk
Это не дубликат. Этот вопрос связан с операциями с пакетами Spark RDD, а не Scala. – Wildfire