2014-11-06 5 views
0

Существует проблема между Kafka и Spark-Streaming, у меня есть низкоуровневый трафик (около 12000-15000 записей в секунду) в производстве, во-первых, потребительский трафик кажется нормальным, но через 10 - 15 минут, внезапно скорость потребления почти 1/10 осталась. Это может быть проблема с трафиком сети?Недостающие записи потребителя Kafka

Конфигурации Кафки:
num.network.threads = 2
num.io.threads = 8
socket.send.buffer.bytes = 1048576
socket.receive.buffer.bytes = 1048576
socket.request.max.bytes = 104857600
log.flush.interval.messages = 10000
log.flush.interval.ms = 1000
log.retention.hours = 12
log.segm ent.bytes = 536870912
log.retention.check.interval.ms = 60000
log.cleaner.enable = ложь
log.cleanup.interval.mins = 1

Конфигурации искровым потоковой передачи (потребитель):

.... 
val kafkaParams = Map(
    "zookeeper.connect" -> zkQuorum, 
    "group.id" -> group, 
    "zookeeper.connection.timeout.ms" -> "1000000", 
    "zookeeper.sync.time.ms" -> "200", 
    "fetch.message.max.bytes" -> "2097152000", 
    "queued.max.message.chunks" -> "1000", 
    "auto.commit.enable" -> "true", 
    "auto.commit.interval.ms" -> "1000") 

try { 
    KafkaUtils.createStream[String, String, StringDecoder, StringDecoder](
     ssc, kafkaParams, topics.map((_, partition)).toMap, 
     StorageLevel.MEMORY_ONLY).map { 
     case (key, value) => convertTo(key, value) 
    }.filter { 
     _ != null 
    }.foreachRDD(line => saveToHBase(line, INPUT_TABLE)) 
    //}.foreachRDD(line => logger.info("handling testing....."+ line)) 
    } catch { 
    case e: Exception => logger.error("consumerEx: " + e.printStackTrace) 
    } 

ответ

Смежные вопросы