У нас есть Spark Cluster, работающий под Memsql. У нас есть разные трубопроводы, настройка ETL такова, как показано ниже.Ошибка преобразования Memsql Spark-Kafka
- Extract: - Спарк чтения сообщений из Кафки кластера (с помощью Memsql Кафка-Zookeeper)
- Transform: - У нас есть собственная баночка развернутой для этого шага
- нагрузки: - Данные из Transform стадии загружаются в Columnstore
у меня есть ниже сомнения:
Что происходит с Посланием опрашиваемого от Кафки, если задание не в Transform стадии - есть ли Memsql принимает Утеряно - Или данные теряются
Если данные потеряны, как я могу решить эту проблему, есть ли какие-либо изменения в конфигурации, которые необходимо сделать для этого?