Я видел, что сообщество больших данных очень горячо использует Flafka во многих отношениях для приема данных, но я еще не понял, почему.
Простой пример, который я разработал, чтобы лучше понять это, состоит в том, чтобы принимать данные Twitter и перемещать их в несколько приемников (HDFS, Storm, HBase).
Я реализовал часть приема следующими двумя способами: (1) Обычный производитель Java Kafka с несколькими потребителями (2) Агент Flume #1 (источник Twitter + приемник Kafka) | (потенциальный) Агент Flume # 2 (источник Kafka + несколько приемников). Я действительно не видел никакой разницы в сложности разработки любого из этих решений (не производственная система, я не могу комментировать производительность) - только то, что я нашел в Интернете, это то, что хороший вариант использования для Flafka будет для данных из нескольких источники, которые необходимо собрать в одном месте, прежде чем использовать в разных местах.
Может кто-нибудь объяснить, почему я должен использовать Flume + Kafka вместо простой Kafka или простой Flume?