Данные выглядит следующим образом:Как прочитать файл в pyspark с «] | [» Разделитель
pageId]|[page]|[Position]|[sysId]|[carId 0005]|[bmw]|[south]|[AD6]|[OP4
Есть по крайней мере 50 столбцов и миллионы строк.
Я пытаюсь использовать приведенный ниже код для чтения:
dff = sqlContext.read.format("com.databricks.spark.csv").option("header", "true").option("inferSchema", "true").option("delimiter", "]|[").load(trainingdata+"part-00000")
это дает мне следующую ошибку:
IllegalArgumentException: u'Delimiter cannot be more than one character: ]|['
u'Поддерживаемый специальный символ для разделителя: \\] \\ | \\ [' – dsl1990