2016-10-11 2 views
0

Я работаю над версией Spark: 2.0.1 и Cassandra 3.9. Я хочу читать данные из таблицы в cassandra CassandraSQLContext. Однако Spark 2.0 был изменен и с использованием sparkSession. Я пытаюсь использовать sparkSession, и мне повезло, вот мой код.Как загрузить данные из таблицы Cassandra

Не могли бы вы пересмотреть и дать свой совет?

def main(args: Array[String], date_filter: String): Unit = { 
    val conf = new SparkConf(true).set("spark.cassandra.connection.host", "localhost") 
    val sc = new SparkContext(conf) 
    val sparkSession = SparkSession.builder 
     .master("local") 
     .appName("my-spark-app") 
     .config(conf) 
     .getOrCreate() 
     import sparkSession.implicits._ 
     import org.apache.spark.sql._ 
    val rdd = sparkSession 
     .read 
     .format("org.apache.spark.sql.cassandra") 
     .options(Map("table" -> "users", "keyspace" -> "monita")) 
     .load() 
     println("count: " +rdd.count()) 

    } 
+0

Пожалуйста, разместите свой код в блоке кода так, чтобы он был отформатирован правильно. –

ответ

0

Ваш код выглядит нормально. Вам не нужно создавать SC. Вы можете установить свойства соединения Cassandra в config, как показано ниже.

val sparkSession = SparkSession 
    .builder 
    .master("local") 
    .appName("my-spark-app") 
    .config("spark.cassandra.connection.host", "127.0.0.1") 
    .config("spark.cassandra.connection.port", "9042") 
    .getOrCreate() 
Смежные вопросы