У меня есть сложный набор данных с более чем 16M рядами, поступающими из фармацевтической промышленности. Что касается данных, он сохраняется на сервере sql с более чем 400 реляционными таблицами.Инструменты для предварительной обработки больших данных для панелей мониторинга?
данных есть несколько уровней иерархии, как провинция, город, почтовый индекс, лицо и антигены мера и т.д.
Я хотел бы создать много панелей управления для того, чтобы наблюдать изменения & тенденции происходит. Для этой цели я могу использовать Pentaho, R (блестящий) или Tableau. Но проблема в том, что данные настолько огромны, и для обработки ее с помощью инструментальной панели требуется очень много времени. У меня есть выбор сделать куб и подключить его к панели.
Мой вопрос: есть ли какие-либо другие решения, которые я могу использовать вместо создания куба? Я не хочу испытывать трудности при создании &, поддерживая куб.
Я хотел бы использовать программное обеспечение, где я определяю отношения между таблицами, поэтому агрегация/объединение происходит плавно и выводит обработанные таблицы, которые могут подключаться к панелям. Я слышал, что Alteryx - это одно программное обеспечение, которое может сделать это за вас (я сам не пробовал, и это дорого!).
Я понимаю, что эта задача требует двух или более программных/инструментов. Пожалуйста, поделитесь своим опытом &. Укажите, какие инструменты вы используете, размер ваших данных и насколько быстро/эффективно используется вся система и другие необходимые детали.