Я пытаюсь использовать соединитель spark-cassandra datastax (https://github.com/datastax/spark-cassandra-connector), чтобы импортировать некоторые данные из файлов csv. Я понимаю, что большинство случаев временного класса можно использовать при импорте, но я имею дело с строками с примерно 500 полями, поэтому я не могу использовать их без вложенности (из-за ограничения на поле в 22 случаях). Также можно напрямую хранить карту, но я не думаю, что это идеально, так как существует несколько типов данных.Импорт длинных строк в Cassandra из Spark
Возможно, что-то не получается в преобразовании из RDD [String] -> RDD [(String, String, ...)] Так как .split (",") просто дает RDD [Array [String]].
Я много сделал для поиска, но не очень повезло, поэтому любая помощь будет принята с благодарностью! Благодарю.