Использование Spark 2.0, я вижу, что можно превратить dataframe строки в dataframe классов case. Когда я пытаюсь это сделать, я приветствовал сообщение о том, чтобы импортировать spark.implicits._
. Проблема, которая у меня есть, заключается в том, что Intellij не признает, что в качестве действительного оператора импорта Im задается вопросом, было ли это перемещено, а сообщение не обновлено или если у меня нет правильных пакетов в моих настройках сборки, здесь это мой build.sbt
Spark 2.0 missing spark implicits
libraryDependencies ++= Seq(
"org.mongodb.spark" % "mongo-spark-connector_2.11" % "2.0.0-rc0",
"org.apache.spark" % "spark-core_2.11" % "2.0.0",
"org.apache.spark" % "spark-sql_2.11" % "2.0.0"
)
Как я могу преобразовать свой RDD в DadaFrame без 'import spark.implicits._'? Мне нужно что-то вроде метода '.toDF', но без' spark.implicits' –
, если у вас есть Rdd [row], вы можете сделать spark.createDataFrame (rdd) –