2014-06-17 2 views
3

Я пытаюсь кластер hbase с двумя узлами на пару серверов Linux. Все файлы передаются, и на сервере есть запущенный кластер hasoop, но hbase все еще отказывается полностью работать. Зенки и региональные серверы запускаются правильно, и я могу даже использовать оболочку, но мастер отказывается запускаться. Бревна для мастера дают основания как:Hbase master не удается построить

2014-06-17 14:56:43,678 ERROR [main] master.HMasterCommandLine: Master exiting 
java.lang.RuntimeException: Failed construction of Master: class org.apache.hado 
op.hbase.master.HMaster 
     at org.apache.hadoop.hbase.master.HMaster.constructMaster(HMaster.java:2 
785) 
     at org.apache.hadoop.hbase.master.HMasterCommandLine.startMaster(HMaster 
CommandLine.java:184) 
     at org.apache.hadoop.hbase.master.HMasterCommandLine.run(HMasterCommandL 
ine.java:134) 
     at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:70) 
     at org.apache.hadoop.hbase.util.ServerCommandLine.doMain(ServerCommandLi 
ne.java:126) 
     at org.apache.hadoop.hbase.master.HMaster.main(HMaster.java:2799) 
Caused by: java.net.UnknownHostException: hadoop-namenode 
     at org.apache.hadoop.security.SecurityUtil.buildTokenService(SecurityUti 
l.java:418) 
     at org.apache.hadoop.hdfs.NameNodeProxies.createNonHAProxy(NameNodeProxi 
es.java:231) 
     at org.apache.hadoop.hdfs.NameNodeProxies.createProxy(NameNodeProxies.ja 
va:139) 
     at org.apache.hadoop.hdfs.DFSClient.<init>(DFSClient.java:510) 
     at org.apache.hadoop.hdfs.DFSClient.<init>(DFSClient.java:453) 
     at org.apache.hadoop.hdfs.DistributedFileSystem.initialize(DistributedFi 
leSystem.java:136) 
     at org.apache.hadoop.fs.FileSystem.createFileSystem(FileSystem.java:2433 
) 
     at org.apache.hadoop.fs.FileSystem.access$200(FileSystem.java:88) 
     at org.apache.hadoop.fs.FileSystem$Cache.getInternal(FileSystem.java:246 
7) 
     at org.apache.hadoop.fs.FileSystem$Cache.get(FileSystem.java:2449) 
     at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:367) 
     at org.apache.hadoop.fs.Path.getFileSystem(Path.java:287) 
     at org.apache.hadoop.hbase.util.FSUtils.getRootDir(FSUtils.java:883) 
     at org.apache.hadoop.hbase.master.HMaster.<init>(HMaster.java:459) 
     at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method) 

     at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstruct 
orAccessorImpl.java:39) 
     at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingC 
onstructorAccessorImpl.java:27) 
     at java.lang.reflect.Constructor.newInstance(Constructor.java:513) 
     at org.apache.hadoop.hbase.master.HMaster.constructMaster(HMaster.java:2 
780) 
     ... 5 more 

Моя конфигурация для моего Hbase-site.xml является

<configuration> 
<property> 
<name>hbase.master</name> 
<value>master:60000</value> 
</property> 

<property> 
<name>hbase.rootdir</name> 
<value>hdfs://hadoop-namenode:9000/hbase</value> 
</property> 


<property> 
<name>hbase.cluster.distributed</name> 
<value>true</value> 
</property> 



<property> 
    <name>hbase.zookeeper.property.clientPort</name> 
    <value>2222</value> 
</property> 


<property> 
<name>hbase.zookeeper.quorum</name> 
<value>master</value> 
</property> 
</configuration> 

ли проблема с моей конфигурации, или это какой-то сетевой вопрос?

ответ

1

Мастер HBase не может решить ip «hadoop-namenode». Вы уже добавили «hadoop-namenode» в файл /etc/hosts в мастер-машину. Вы можете легко проверить его на ping hadoop-namenode в мастер-машине HBase.

+1

Я сейчас очень злюсь на себя, что сам не поймал это. Огромное спасибо. Я просто изменил эту ценность: 9000, и теперь все работает нормально. – chenab

Смежные вопросы