Я пытаюсь понять точную разницу и какой метод можно использовать в каком конкретном сценарии между созданием схемы неясно & Программно.Spark SQL - Точная разница между созданием схемы неявно и программно
На сайте Databricks информация не такая уж иная. & пояснительная записка.
Как мы видим, при использовании метода Reflection (implicit RDD to DF) мы можем создать класс Case, выбирая конкретные столбцы из текстового файла с помощью функции Map.
И в Программном Style - мы загружаем набор данных в текстовый файл (по аналогии с отражением)
Созданием SchemaString (String) = «Зная файл можно указать столбцы нам нужны» (Подобный случай класс в Отражение путь)
Импорт ROW API - который снова карта в определенных столбцы & типов данных, используемых в схеме String (аналогично случаю классов)
Затем мы создаем DataFrame & после этого все такое же .. И что является точной разницей в этих двух подходах.
http://spark.apache.org/docs/1.5.2/sql-programming-guide.html#inferring-the-schema-using-reflection
http://spark.apache.org/docs/1.5.2/sql-programming-guide.html#programmatically-specifying-the-schema
Пожалуйста Объясните ...
Несколько очищается, но это было бы здорово, если вы разместите пример с разницей между ними. – AJm