Я видел, что сообщество Big Data очень жарко использует Flafka во многих отношениях для приема данных, но пока я еще не понял почему.Big Data ingestion - случаи использования Flafka
Простой пример, который я разработал, чтобы лучше понять это, - это глотать данные в Twitter и переместить их на несколько приемников (HDFS, Storm, HBase).
Я сделал реализацию для проглатывания части в двух следующих способов: (1) Обычная Кафка Java Producer с несколькими потребителями (2) Flume агент # 1 (Twitter источник + Кафка раковина) | (потенциал) Flume agent # 2 (источник Кафки + многоразовые мойки). Я не видел никакой разницы в сложности разработки любого из этих решений (а не в производственной системе, о которой я не могу комментировать производительность) - только то, что я нашел в Интернете, заключается в том, что хорошим вариантом использования для Flafka будет для данных из нескольких источники, которые необходимо объединить в одном месте, прежде чем потреблять в разных местах.
Может кто-нибудь объяснить, почему я должен использовать Flume + Kafka над равниной Kafka или простой Flume?
Попробуйте сами, какие у вас собственные выводы? Вы сами провели исследование? если да, то что вы получили от них и что вы чувствуете, все еще отсутствует? – Newtopian
ответил уже –