Я очень новичок в Apache Spark и пытаюсь использовать SchemaRDD с текстовым файлом, ограниченным текстом. У меня есть отдельная установка Spark 1.5.2 на моем Mac с помощью Scala 10. У меня есть файл CSV со следующими репрезентативными данными, и я пытаюсь разбить их на 4 разных файла на основе первого значения (столбца) записи , Я бы очень признателен за любую помощь, которую я смогу с этим справиться.Apache Spark, работающий с файлами CSV с разделителями каналов
1|1.8|20140801T081137|115810740
2|20140714T060000|335|22159892|3657|0.00|||181
2|20140714T061500|335|22159892|3657|0.00|||157
2|20140714T063000|335|22159892|3657|0.00|||156
2|20140714T064500|335|22159892|3657|0.00|||66
2|20140714T070000|335|22159892|3657|0.01|||633
2|20140714T071500|335|22159892|3657|0.01|||1087
3|34|Starz
3|35|VH1
3|36|CSPAN: Cable Satellite Public Affairs Network
3|37|Encore
3|278|CMT: Country Music Television
3|281|Telehit
4|625363|1852400|Matlock|9212|The Divorce
4|625719|1852400|Matlock|16|The Rat Pack
4|625849|1846952|Smallville|43|Calling
Добро пожаловать в SO. Если вы включите свои собственные попытки, у вас будет гораздо больше шансов получить ответ. – zero323