2014-11-30 3 views
0

Я пытаюсь настроить псевдо-распределенный кластер хаоса на CentOS 6.5. Версия Hadoop, которую я использую, равна 0,20. Я также использую версию Apache Pig версии 0.12.1.Hadoop Pseudo-Disrtibuted Cluster Namenode не запускается

Я изменил следующие конфигурационные файлы:

ядро-site.xml

<property> 
      <name>fs.default.name</name> 
      <value>hdfs://localhost:8020</value> 
    </property> 

HDFS-site.xml

<configuration> 
<property> 
    <name>fs.default.name</name> 
    <value>1</value> 
</property> 

<property> 
    <name>dfs.permissions</name> 
     <value>false</value> 
</property> 
</configuration> 

mapred-site.xml

<configuration> 
    <property> 
      <name>mapred.job.tracker</name> 
      <value>127.0.0.1:8021</value> 
    </property> 
</configuration> 

Итак, после того, как я настроил соответствующие файлы, я выдал команду hadoop namenode -format как , а также sh start-all.sh. Однако после запуска команды jps я вижу, что все имена, вторичное имя и datanode запускаются, но только на короткое время. Если посмотреть на файлы журнала, я вижу следующее:

2014-11-28 20:32:59,434 ERROR org.apache.hadoop.hdfs.server.namenode.NameNode:  java.io.IOException: Call to /0.0.0.1:8020 failed on local exception: java.net.SocketException: Invalid argument 
at org.apache.hadoop.ipc.Client.wrapException(Client.java:775) 

Как я могу исправить эту проблему?

+0

полезная ссылка http://www.michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-multi-node-cluster / –

ответ

0

Вы можете обнаружить, что вам нужно использовать имя хоста вместо localhost или 127.0.0.1.

0

Вы должны указать свой NameNode с соответствующим портом

<name>fs.default.name</name> 
<value>hdfs://localhost:9000</value> 
Смежные вопросы