Действительно простые файлы кода Scala при первом вызове метода count()
.Spark-submit не может получить доступ к локальной файловой системе
def main(args: Array[String]) {
// create Spark context with Spark configuration
val sc = new SparkContext(new SparkConf().setAppName("Spark File Count"))
val fileList = recursiveListFiles(new File("C:/data")).filter(_.isFile).map(file => file.getName())
val filesRDD = sc.parallelize(fileList)
val linesRDD = sc.textFile("file:///temp/dataset.txt")
val lines = linesRDD.count()
val files = filesRDD.count()
}
Я не хочу сейчас устанавливать установку HDFS. Как настроить Spark для использования локальной файловой системы? Это работает с spark-shell
.