У нас есть набор данных в MongoDB, что мы уменьшаем карту (в два раза), мы собираемся использовать карту Mongo на данный момент, но я думаю о том, как масштабировать и улучшать производительность в будущем, и я думаю о Hadoop.Является ли Hadoop хорошим решением для небольших данных?
Большая часть материала, который я читаю о Hadoop, рассказывает о больших данных, терабайтах материала, когда мы собираемся иметь дело с мегабайтами, 10 с, может быть, 100 тысяч тысяч записей. (Возможно, многие из них работают одновременно, хотя одна задача - небольшая сумма может быть большой).
Мы действительно хотим получить безумную производительность из небольших данных, а не делать большие данные. т. е. получить карту, уменьшающую результаты, которые занимают 10 секунд в MongoDB, чтобы занять секунды или секунды в Hadoop.
Возможно ли это?
Действительно ли Hadoop подходит для этого?
Если нет других технологий, которые сделают это возможным?
Детали точной задачи это необходимо для и моего решения на сегодняшний день, можно найти в этом вопросе: Linear funnel from a collection of events with MongoDB aggregation, is it possible?
Я не буду отвечать на этот вопрос, как я не знаете Hadoop, но, читая ответы на этот вопрос и связанный с ним вопрос, я задаюсь вопросом, может ли, учитывая размер данных, получить лучшее решение из специального приложения, которое хранит данные в памяти. Вычисления не были одинаковыми, но у меня была такая же потребность: максимальная скорость. Единственное решение, которое мы нашли, было больше ОЗУ! – Rich