версия Scala из SparkContext обладает свойствомКак установить параметры конфигурации Hadoop от pyspark
sc.hadoopConfiguration
Я успешно использовал это, чтобы установить свойства Hadoop (в Скале ..)
например
sc.hadoopConfiguration.set("my.mapreduce.setting","someVal")
Однако версия Python SparkContext не имеет этого доступа. Есть ли способ установить значения конфигурации hadoop в конфигурацию Hadoop, используемую контекстом pyspark?
Это решение также относится и к тех, кто пытается получить их AWS AccessKeyId/SecretAccessKey быть приняты при использовании S3N: // адреса. 'sc._jsc.hadoopConfiguration(). Set ('fs.s3n.awsAccessKeyId', '')' –