Я тоже встречаюсь с этой проблемой. Затем я проверяю память fielddata.
использование под заказ:
`GET /_stats/fielddata?fields=*`
выхода дисплей:
"logstash-2016.04.02": {
"primaries": {
"fielddata": {
"memory_size_in_bytes": 53009116,
"evictions": 0,
"fields": {
}
}
},
"total": {
"fielddata": {
"memory_size_in_bytes": 53009116,
"evictions": 0,
"fields": {
}
}
}
},
"logstash-2016.04.29": {
"primaries": {
"fielddata": {
"memory_size_in_bytes":0,
"evictions": 0,
"fields": {
}
}
},
"total": {
"fielddata": {
"memory_size_in_bytes":0,
"evictions": 0,
"fields": {
}
}
}
},
вы можете увидеть мои индексы имя базы DateTime и выселения все 0. Сложение, 2016.04.02 памяти 53009116, но 2016.04.29 равно 0.
так что я могу сделать вывод о том, что старые данные имеют занимают всю память, так что новые данные не могут использовать его, а затем, когда я сделать AGG запрос новых данные, повысить CircuitBreakingException
вы можете установить конфиг/elasticsearch. yml
indices.fielddata.cache.size: 20%
Это может привести к высылке данных при достижении предела памяти.
но может быть реальным решением, которое вы должны добавить в память в furture.and контролировать использование памяти fielddata - это хорошие привычки.
более подробно: https://www.elastic.co/guide/en/elasticsearch/guide/current/_limiting_memory_usage.html
Вы также можете увидеть эту ошибку непосредственно в Chrome, открыв инструменты разработчика, выбрав вкладку «Сеть», а затем снова запустите поисковый запрос. Это сообщение об ошибке будет доступно в поле 'Response' события' _msearch? '. Это помогает, если у вас нет прямого доступа к журналам сервера. – anothermh