2016-12-30 2 views
0

Мы используем Hazelcast для сетки данных памяти. Мы хотим расширить его для аналитического использования при вычислении памяти. У меня мало вопросов относительно этогоКак загрузить ненормированные данные с помощью hazelcast?

  1. Какую структуру данных использовать? (У меня нет первичного ключа в качестве таблицы де-нормализации и есть огромные данные)
  2. Если IMap - единственный вариант, то мы можем использовать комбинированный ключ или фиктивный ключ, который должен иметь поддержку индекса и предиката?
  3. Это неправильный вариант использования i.e Hazelcast не может использоваться для аналитики?
+0

IMAP - правильный выбор, если данные действительно огромные, слишком большие, чтобы вписаться в один процесс. Можете ли вы подробнее рассказать о какой обработке вы имеете в виду - это когда изменения данных или статический анализ? –

+0

@NeilStevenson: Статический анализ –

ответ

0

Вы можете создавать случайные ключи на основе UUID::randomUUID или создавать композитные клавиши. Индексы могут быть созданы над значениями и ключами (для ключей используйте ключевое слово magic __key# и добавьте свойство интересующего вас ключа.

Предикаты используют одно и то же ключевое слово, если вы хотите запустить его с помощью сложного ключа свойство, иначе просто запрос, как вы ожидаете, от каких-либо других данных.

+0

Если я создал IMap > .. будет предицировать и индексировать работу в Списке и как я могу загрузить таблицу из базы данных, используя загрузчик, который должен загружать d ata на разных узлах параллельно? –

Смежные вопросы