Каким образом можно написать дату из Кафки в Кассандру? Я ожидал бы, что это будет решена проблема, но, похоже, нет стандартного адаптера. Многие люди, похоже, используют Шторм для чтения из Кафки, а затем пишут в Кассандру, но шторм кажется несколько излишним для простых операций ETL.Потоковые данные из Кафки в Кассандру в реальном времени
ответ
Мы сильно используя Кафку и Кассандру через шторм
Мы полагаемся на Шторма, потому что:
там, как правило, много распределенной обработки (между узлами) шагов, прежде чем результат оригинального сообщения попаданием Cassandra (Топология штормовых болтов)
Нам не нужно поддерживать потребительское состояние Kafka (смещение) самостоятельно - соединитель Storm-Kafka делает это для нас, когда все продукты оригинального сообщения попадают в Storm
Обработка сообщений распределяются по узлам с Бурей изначально
В противном случае, если это очень простой случай, вы можете эффективно читать сообщения от Кафки и написать результат Кассандру без помощи Бури
Спасибо! Где Шторм продолжает компенсировать Кафку? Можете ли вы гарантировать ровно один раз обработку сообщений, если смещение не сохраняется в той же транзакции, что и обработанные данные в Cassandra? Кроме того, вы, ребята, заглянули в Spark Streaming? – EugeneMi
В нашем конкретном случае это гарантия «по крайней мере одна». Это прекрасно - мы разработали большую часть наших операций обработки как идемпотент. Я слышал о гарантиях «точно-один раз» в Storm Trident, но это микро-пакет, так же как и Spark Streaming. – viktortnk
В недавнем выпуске Kafka появилась концепция соединителя для поддержки источников и поглотителей в качестве концепций первого класса в дизайне. При этом вам не нужна потоковая инфраструктура для перемещения данных в/из Kafka. Вот разъем Cassandra для Kafka, который вы можете использовать: https://github.com/tuplejump/kafka-connect-cassandra
- 1. Как очистить потоковые данные в реальном времени с помощью Python?
- 2. Спарк потоковые получить данные из Twitter и сохранить Кассандру
- 3. Вставка из Кафки в Кассандру с использованием NIFI
- 4. гнездо потери соединения при передаче данных в реальном времени потоковые
- 5. Получить данные из mysql в реальном времени
- 6. Соберите данные в реальном времени в реальном времени facebook
- 7. Сохранить данные из темы Кафка в Кассандру
- 8. Изменения в реальном времени в реальном времени
- 9. Datatables - данные в реальном времени получить данные
- 10. Потоковые данные в BigQuery
- 11. потоковые данные в opentsdb
- 12. Получайте обновления в реальном времени в реальном времени в Kafka
- 13. Обновление в реальном времени в реальном времени
- 14. Данные в реальном времени в Matlab
- 15. Данные в реальном времени от Google Analytics
- 16. JQuery и данные MySQL в реальном времени
- 17. Как хранить данные в реальном времени
- 18. Entity Framework 4.1 данные в реальном времени
- 19. Google Fit API - данные в реальном времени
- 20. Пользовательские данные в реальном времени RTMP/RTMPT
- 21. потоковые двоичные данные по http
- 22. Данные в реальном времени JavaFx TreeTableView
- 23. Получить данные в реальном времени с телефона
- 24. Datazen - данные в реальном времени не отображаются
- 25. Где хранить данные стратегии в реальном времени?
- 26. iOS Coreplot данные в реальном времени
- 27. Как уменьшить данные в реальном времени?
- 28. Данные в реальном времени через Интернет
- 29. Процентные данные захвата данных в реальном времени
- 30. PHP eAccelerator и данные в реальном времени
Так же, как и обновление - мы пошли с Spark Streaming настолько хорошо. Тестирование DataStax Spark теперь – EugeneMi
Кроме того, Kafka 3.0 будет иметь Kafka Connect - структуру для построения соединителей. В конце концов, вероятно, у них тоже будет разъем C *. Как я уже говорил, Spark Streaming работает для нас очень хорошо. Прост в использовании, и он заботится о отказоустойчивости и масштабируемости для вас. – EugeneMi