0
Я работаю над версией Spark: 2.0.1 и Cassandra 3.9. Я хочу читать данные из таблицы в cassandra CassandraSQLContext. Однако Spark 2.0 был изменен и с использованием sparkSession. Я пытаюсь использовать sparkSession, и мне повезло, вот мой код.Как загрузить данные из таблицы Cassandra
Не могли бы вы пересмотреть и дать свой совет?
def main(args: Array[String], date_filter: String): Unit = {
val conf = new SparkConf(true).set("spark.cassandra.connection.host", "localhost")
val sc = new SparkContext(conf)
val sparkSession = SparkSession.builder
.master("local")
.appName("my-spark-app")
.config(conf)
.getOrCreate()
import sparkSession.implicits._
import org.apache.spark.sql._
val rdd = sparkSession
.read
.format("org.apache.spark.sql.cassandra")
.options(Map("table" -> "users", "keyspace" -> "monita"))
.load()
println("count: " +rdd.count())
}
Пожалуйста, разместите свой код в блоке кода так, чтобы он был отформатирован правильно. –