Я просто пытаюсь изучить Cassnadra, я делаю простое упражнение по установке двух кластеров узлов, но у меня есть трудности - до сих пор он работал. Cassandra Версия: 2.1.1.Ошибка Cassandra: нет узлов, присутствующих в кластере
Хост ОС: Centos 6.5 64-битный
Java: 8 (Oracle)
Количество узлов: 2
Узел адреса: 192.168.0.41 и 192.168.0.43 (Статическое)
открытых портов на брандмауэрах на обоих полях: 7000, 9042, 9160, 7199
Я сделал следующее для настройки кластера:
Измененное cluster_name на обоих полях, чтобы "MyCluster", как в cassandra.yaml и в таблицах, как описано здесь:
cassandra - Saved cluster name Test Cluster != configured name
Измененное listen_address к 192.168.0.41 и 192.168.0.43 respectivelly.
Изменен rpc_address до 192.168.0.41 и 192.168.0.43.
На 41 я поставил "семена: 192.168.0.43"
На 43 я поставил "семена: 192.168.0.43" (так же, как и на 41)
Каждый узел работает сам по себе (когда другой вниз), он начинает и реагирует на
nodetool status
просто отлично, и продолжать работать, я могу также соединиться с cqlsh и запустить
describe keyspaces;
Это тоже работает. Но когда я запускаю оба узла одновременно, один из них умирает через минуту или две.
Точная симптомы: узел все еще реагирует на cqlsh команды описывают keyspaces хорошо, так что это вроде живой, но при попытке сделать статус nodetool следующей ошибки выводится на выходе nodetool:
error: No nodes present in the cluster. Has this node finished starting up?
-- StackTrace --
java.lang.RuntimeException: No nodes present in the cluster. Has this node finished starting up?
at org.apache.cassandra.dht.Murmur3Partitioner.describeOwnership
(Murmur3Partitioner.java:130)
....
другой узел продолжает работать нормально, и он сохраняет отчетность о 100% -ном владении сам по себе как единственный узел в кластере.
Вот system.log часть 43 вокруг времени "умер":
WARN [GossipStage:1] 2014-11-17 04:33:30,163 TokenMetadata.java:198 - Token -7592767110844961279 changing ownership from /192.168.0.43 to /192.168.0.41
WARN [GossipStage:1] 2014-11-17 04:33:30,163 TokenMetadata.java:198 - Token -7240492143116021720 changing ownership from /192.168.0.43 to /192.168.0.41
WARN [GossipStage:1] 2014-11-17 04:33:30,163 TokenMetadata.java:198 - Token -8434936427655644773 changing ownership from /192.168.0.43 to /192.168.0.41
WARN [GossipStage:1] 2014-11-17 04:33:30,163 TokenMetadata.java:198 - Token -1656745619022636889 changing ownership from /192.168.0.43 to /192.168.0.41
WARN [GossipStage:1] 2014-11-17 04:33:30,163 TokenMetadata.java:198 - Token -7470625165291146007 changing ownership from /192.168.0.43 to /192.168.0.41
INFO [HANDSHAKE-/192.168.0.41] 2014-11-17 04:33:30,230 OutboundTcpConnection.java:427 - Handshaking version with /192.168.0.41
INFO [GossipTasks:1] 2014-11-17 04:33:49,179 Gossiper.java:906 - InetAddress /192.168.0.41 is now DOWN
INFO [HANDSHAKE-/192.168.0.41] 2014-11-17 04:33:50,190 OutboundTcpConnection.java:427 - Handshaking version with /192.168.0.41
INFO [SharedPool-Worker-1] 2014-11-17 04:34:30,224 Gossiper.java:892 - InetAddress /192.168.0.41 is now UP
INFO [CompactionExecutor:5] 2014-11-17 04:41:01,178 CompactionManager.java:521 - No files to compact for user defined compaction
INFO [CompactionExecutor:6] 2014-11-17 04:51:01,187 CompactionManager.java:521 - No files to compact for user defined compaction
Любая идея, что может быть не так? Спасибо
Наблюдение после ряда экспериментов, начальный узел был тем, который «умирает» независимо от того, какой порядок. – henry
Вы нашли решение, у меня такая же проблема? –