2016-08-01 1 views
-2

Я использую функцию ниже для сохранения моих данных в Hbase, может кто-нибудь помочь мне, как использовать обновленный api или какой-нибудь пример? ниже приводится мой код:Htable и .add развращены, что я должен использовать вместо этого? Это в scala

def getConnection():(Connection, Configuration) ={ 
    val config = HBaseConfiguration.create() 
    config.set("hbase.zookeeper.quorum", "node-01.algo,node-02.algo") 
    config.set("hbase.master", "node-01.algo:60000") 
    config.set("zk.connectiontimeout.ms", "10000") 
    config.set("hbase.zookeeper.property.clientport", "2181") 
    config.set("zookeeper.znode.parent", "/hbase-unsecure") 
    val connection = ConnectionFactory.createConnection(config) 
    (connection, config) 
    } 
def addRecord(tableName: String, rowKey: String, family: String, qualifier: String, value: String) ={ 
    val conTuple = getConnection() 
    val connection = conTuple._1 
    val table = new HTable(conTuple._2, tableName) 
    val theput= new Put(Bytes.toBytes(rowKey)) 
    theput.add(Bytes.toBytes(family), Bytes.toBytes(qualifier), Bytes.toBytes(value)) 
    table.put(theput) 
    table.close() 
    connection.close() 
    } 

Htable был развращен и попросил меня вместо этого использовать таблицу.

ответ

0

кадры данных неявно поддерживают только Hive,

Существует библиотека для сохранения в HBase, но вы должны сделать много ручной работы spark on hbase

Другой вариант заключается в установке Apache Phoenix

Смежные вопросы