Я ищу, чтобы потреблять из Kafka и сохранять данные в Hadoop и Elasticsearch. Я видел два способа сделать это в настоящее время: используя Filebeat для потребления из Kafka и отправляйте его в ES и используя инфраструктуру Kafka-Connect. Существует модуль Kafka-Connect-HDFS и Kafka-Connect-Elasticsearch.Kafka-Connect vs Filebeat & Logstash
Я не уверен, какой из них можно использовать для отправки потоковых данных. Хотя я думаю, что если я захочу в какой-то момент взять данные из Kafka и поместить его в Cassandra, я могу использовать для этого модуль Kafka-Connect, но такой функции для Filebeat не существует.
Я не понимаю, почему здесь используется Filebeat. Он считывает файлы, а не сообщения TCP от Kafka. Вам не нужны биты, просто Logstash –