Я установил hadoop на мой ubuntu, но проблема в том, что каждый раз, когда я начинаю использовать его, я не могу использовать его, пока не буду форматировать мой namenode? В чем может быть проблема? Пожалуйста, предложите мне это. Я использую версию Hadoop 1.2.1 на JDK версии 1.8.0_25Ошибка при запуске демонов для использования Hadoop
ответ
Я думаю, вы упоминали свойство hadoop.tmp.dir как каталог tmp, поэтому, когда вы закрываете компьютер, он хочет формат наменования. в этом случае, сделать каталог HDFS в каталоге вар, /var/hdfs
и дать разрешение на
sudo chown -R username /var/hdfs
перейти к Hadoop/конф открытый HDFS-site.xml и редактировать этот объект.
<property>
<name>hadoop.tmp.dir</name>
<value>/var/hdfs</value>
</property>
один раз, формат NameNode
bin/hadoop namenode -format
start.all.sh
После этого, система никогда не хочет формат NameNode. дайте мне знать, если не работает.
Могу ли я спросить, почему вы используете такую старую версию Hadoop? 2.5.2 - текущая стабильная сборка. Также это новая установка hadoop? Если это так, выполните следующую команду для форматирования namenode.
bin/hadoop namenode -format
Это будет отформатировать ваш наменода. Он уничтожит все данные из HDFS (распределенной файловой системы Hadoop), но не локальную файловую систему. Вам нужно сделать это только один раз, если по какой-то причине ваш namenode не будет поврежден.
Вы можете получить самую UpToDate версию Hadoop от: http://mirror.ox.ac.uk/sites/rsync.apache.org/hadoop/common/
Немного больше информации может быть полезным, возможно, скриншот, показывающий ошибку.
- Остановить все службы hadoop.
Удалите папку tmp (содержит данные и namenode), а затем отформатируйте свой namenode.
hadoop namenode -format
Затем запустите службы хаоса.
- 1. Ошибки при запуске HDFS демонов на Hadoop многоузлового кластере
- 2. ошибка Hadoop приходит при запуске Hadoop
- 3. ошибка при запуске кластера Hadoop
- 4. Ошибка при запуске HDFS-демонов на hadoop Multinode cluster.Datanode не запускается
- 5. Учетные записи пользователей для демонов Hadoop
- 6. Ошибка Hadoop при запуске файла дает ошибку
- 7. DSE с Hadoop: ошибка при запуске
- 8. Hadoop: при запуске контейнера произошла сбойная ошибка
- 9. [Hadoop] [Затмение] Ошибка при запуске MapReduce
- 10. Ошибка при запуске namenode в Hadoop
- 11. Ошибка при запуске файла jar в hadoop
- 12. Ошибка при запуске программы в hadoop?
- 13. Ошибка при запуске hadoop Job Tracker
- 14. Ошибка при запуске базового кода Hadoop
- 15. Ошибки при запуске Hadoop
- 16. Hadoop 2.6.0 - Запрос пароля для пользователя при запуске сценария запуска?
- 17. Каково общее количество демонов в Hadoop (0.20.2)?
- 18. не может запускать демонов Hadoop: Недостаточно памяти
- 19. Как проверить статус разных демонов в Hadoop?
- 20. java.lang.OutOfMemoryError при запуске Hadoop job
- 21. Ошибка при запуске Pig
- 22. Ошибка при запуске файла Jar в программе Hadoop MapReduce
- 23. GUI для использования Hadoop
- 24. Ошибка при запуске примера mapreduce в hadoop 0.23.6
- 25. Ошибка при запуске только что установленного Hive/Hadoop
- 26. Ошибка при запуске скрипта Python в приложении Hadoop-Streaming
- 27. Hadoop ClassNotFoundException при запуске start-all.sh
- 28. ошибка при запуске flume
- 29. Ошибка связи в hadoop-2.6.0 при запуске программы подсчета слов
- 30. Ошибка при запуске базового Hadoop wordcount в cloudera
Где я могу найти каталог var – Sri
Вам не нужно просто вставить это свойство в conf/hdfs-site.xml. –