2015-05-18 5 views
1

Я новичок в песочнице Hortonworks. Я пытаюсь настроить его вручную в своей системе (ubuntu-14.04) по этой ссылке.Процесс Datanode не начинается с песочницы Hortonworks. Настроить вручную.

http://docs.hortonworks.com/HDPDocuments/HDP2/HDP-2.2.4/HDP_Man_Install_v224/index.html#validating_core_hadoop.

После выполнения этой команды ниже для запуска Datanode.

/usr/hdp/current/hadoop-hdfs-datanode/../hadoop/sbin/hadoop-daemon.sh --config $HADOOP_CONF_DIR start datanode 

Процесс Datanode не запускается. В файле журнала нет ошибок.

Вот мое содержимое файла журнала

ulimit -a for secure datanode user hdfs 
core file size   (blocks, -c) 0 
data seg size   (kbytes, -d) unlimited 
scheduling priority    (-e) 0 
file size    (blocks, -f) unlimited 
pending signals     (-i) 62916 
max locked memory  (kbytes, -l) 64 
max memory size   (kbytes, -m) unlimited 
open files      (-n) 1024 
pipe size   (512 bytes, -p) 8 
POSIX message queues  (bytes, -q) 819200 
real-time priority    (-r) 0 
stack size    (kbytes, -s) 8192 
cpu time    (seconds, -t) unlimited 
max user processes    (-u) 62916 
virtual memory   (kbytes, -v) unlimited 
file locks      (-x) unlimited 

А вот содержимое файла журнала

2015-05-19 10:37:36,626 INFO datanode.DataNode StringUtils.java:startupShutdownMessage(633)) - STARTUP_MSG: 
    java.jar:/usr/share/java/mysql.jar::/usr/share/java/mysql-connector-java-5.1.28.jar:/usr/share/java/mysql-connector-java.jar:/usr/share/java/mysql.jar: 
    STARTUP_MSG: build = [email protected]:hortonworks/hadoop.git -r 22a563ebe448969d07902aed869ac13c652b2872; compiled by 'jenkins' on 2015-03-31T19:40Z 
    STARTUP_MSG: java = 1.7.0_80 
    ************************************************************/ 
    2015-05-19 10:37:36,631 INFO datanode.DataNode (SignalLogger.java:register(91)) - registered UNIX signal handlers for [TERM, HUP, INT] 
    2015-05-19 10:37:36,680 WARN common.Util (Util.java:stringAsURI(56)) - Path /grid/hadoop/hdfs/dn should be specified as a URI in configuration files. Please update hdfs configuration. 
    2015-05-19 10:37:36,681 WARN common.Util (Util.java:stringAsURI(56)) - Path /grid1/hadoop/hdfs/dn should be specified as a URI in configuration files. Please update hdfs configuration. 
    2015-05-19 10:37:36,681 WARN common.Util (Util.java:stringAsURI(56)) - Path grid2/hadoop/hdfs/dn should be specified as a URI in configuration files. Please update hdfs configuration. 
    2015-05-19 10:37:36,747 WARN datanode.DataNode (DataNode.java:checkStorageLocations(2284)) - Invalid dfs.datanode.data.dir /grid/hadoop/hdfs/dn : 
    java.io.FileNotFoundException: File file:/grid/hadoop/hdfs/dn does not exist 
     at org.apache.hadoop.fs.RawLocalFileSystem.deprecatedGetFileStatus(RawLocalFileSystem.java:608) 
     at org.apache.hadoop.fs.RawLocalFileSystem.getFileLinkStatusInternal(RawLocalFileSystem.java:821) 
     at org.apache.hadoop.fs.RawLocalFileSystem.getFileStatus(RawLocalFileSystem.java:598) 
     at org.apache.hadoop.fs.FilterFileSystem.getFileStatus(FilterFileSystem.java:414) 
     at org.apache.hadoop.util.DiskChecker.mkdirsWithExistsAndPermissionCheck(DiskChecker.java:139) 
     at org.apache.hadoop.util.DiskChecker.checkDir(DiskChecker.java:156) 
     at org.apache.hadoop.hdfs.server.datanode.DataNode$DataNodeDiskChecker.checkDir(DataNode.java:2239) 
     at org.apache.hadoop.hdfs.server.datanode.DataNode.checkStorageLocations(DataNode.java:2281) 
     at org.apache.hadoop.hdfs.server.datanode.DataNode.makeInstance(DataNode.java:2263) 
     at org.apache.hadoop.hdfs.server.datanode.DataNode.instantiateDataNode(DataNode.java:2155) 
     at org.apache.hadoop.hdfs.server.datanode.DataNode.createDataNode(DataNode.java:2202) 
     at org.apache.hadoop.hdfs.server.datanode.DataNode.secureMain(DataNode.java:2378) 
     at org.apache.hadoop.hdfs.server.datanode.SecureDataNodeStarter.start(SecureDataNodeStarter.java:78) 
     at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) 
     at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57) 
     at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) 
     at java.lang.reflect.Method.invoke(Method.java:606) 
     at org.apache.commons.daemon.support.DaemonLoader.start(DaemonLoader.java:243) 
    2015-05-19 10:37:36,748 WARN datanode.DataNode (DataNode.java:checkStorageLocations(2284)) - Invalid dfs.datanode.data.dir /grid1/hadoop/hdfs/dn : 
    java.io.FileNotFoundException: File file:/grid1/hadoop/hdfs/dn does not exist 
     at org.apache.hadoop.fs.RawLocalFileSystem.deprecatedGetFileStatus(RawLocalFileSystem.java:608) 
     at org.apache.hadoop.fs.RawLocalFileSystem.getFileLinkStatusInternal(RawLocalFileSystem.java:821) 
     at org.apache.hadoop.fs.RawLocalFileSystem.getFileStatus(RawLocalFileSystem.java:598) 
     at org.apache.hadoop.fs.FilterFileSystem.getFileStatus(FilterFileSystem.java:414) 
     at org.apache.hadoop.util.DiskChecker.mkdirsWithExistsAndPermissionCheck(DiskChecker.java:139) 
     at org.apache.hadoop.util.DiskChecker.checkDir(DiskChecker.java:156) 
     at org.apache.hadoop.hdfs.server.datanode.DataNode$DataNodeDiskChecker.checkDir(DataNode.java:2239) 
     at org.apache.hadoop.hdfs.server.datanode.DataNode.checkStorageLocations(DataNode.java:2281) 
     at org.apache.hadoop.hdfs.server.datanode.DataNode.makeInstance(DataNode.java:2263) 
     at org.apache.hadoop.hdfs.server.datanode.DataNode.instantiateDataNode(DataNode.java:2155) 
     at org.apache.hadoop.hdfs.server.datanode.DataNode.createDataNode(DataNode.java:2202) 
     at org.apache.hadoop.hdfs.server.datanode.DataNode.secureMain(DataNode.java:2378) 
     at org.apache.hadoop.hdfs.server.datanode.SecureDataNodeStarter.start(SecureDataNodeStarter.java:78) 
     at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) 
     at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57) 
     at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) 
     at java.lang.reflect.Method.invoke(Method.java:606) 
     at org.apache.commons.daemon.support.DaemonLoader.start(DaemonLoader.java:243) 
    2015-05-19 10:37:36,749 WARN datanode.DataNode (DataNode.java:checkStorageLocations(2284)) - Invalid dfs.datanode.data.dir /usr/hdp/2.2.4.2-2/hadoop/grid2/hadoop/hdfs/dn : 
    java.io.FileNotFoundException: File file:/usr/hdp/2.2.4.2-2/hadoop/grid2/hadoop/hdfs/dn does not exist 
     at org.apache.hadoop.fs.RawLocalFileSystem.deprecatedGetFileStatus(RawLocalFileSystem.java:608) 
     at org.apache.hadoop.fs.RawLocalFileSystem.getFileLinkStatusInternal(RawLocalFileSystem.java:821) 
     at org.apache.hadoop.fs.RawLocalFileSystem.getFileStatus(RawLocalFileSystem.java:598) 
     at org.apache.hadoop.fs.FilterFileSystem.getFileStatus(FilterFileSystem.java:414) 
     at org.apache.hadoop.util.DiskChecker.mkdirsWithExistsAndPermissionCheck(DiskChecker.java:139) 
     at org.apache.hadoop.util.DiskChecker.checkDir(DiskChecker.java:156) 
     at org.apache.hadoop.hdfs.server.datanode.DataNode$DataNodeDiskChecker.checkDir(DataNode.java:2239) 
     at org.apache.hadoop.hdfs.server.datanode.DataNode.checkStorageLocations(DataNode.java:2281) 
     at org.apache.hadoop.hdfs.server.datanode.DataNode.makeInstance(DataNode.java:2263) 
     at org.apache.hadoop.hdfs.server.datanode.DataNode.instantiateDataNode(DataNode.java:2155) 
     at org.apache.hadoop.hdfs.server.datanode.DataNode.createDataNode(DataNode.java:2202) 
     at org.apache.hadoop.hdfs.server.datanode.DataNode.secureMain(DataNode.java:2378) 
     at org.apache.hadoop.hdfs.server.datanode.SecureDataNodeStarter.start(SecureDataNodeStarter.java:78) 
     at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) 
     at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57) 
     at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) 
     at java.lang.reflect.Method.invoke(Method.java:606) 
     at org.apache.commons.daemon.support.DaemonLoader.start(DaemonLoader.java:243) 
    2015-05-19 10:37:36,749 FATAL datanode.DataNode (DataNode.java:secureMain(2385)) - Exception in secureMain 
    java.io.IOException: All directories in dfs.datanode.data.dir are invalid: "/grid/hadoop/hdfs/dn" "/grid1/hadoop/hdfs/dn" "/usr/hdp/2.2.4.2-2/hadoop/grid2/hadoop/hdfs/dn" 
     at org.apache.hadoop.hdfs.server.datanode.DataNode.checkStorageLocations(DataNode.java:2290) 
     at org.apache.hadoop.hdfs.server.datanode.DataNode.makeInstance(DataNode.java:2263) 
     at org.apache.hadoop.hdfs.server.datanode.DataNode.instantiateDataNode(DataNode.java:2155) 
     at org.apache.hadoop.hdfs.server.datanode.DataNode.createDataNode(DataNode.java:2202) 
     at org.apache.hadoop.hdfs.server.datanode.DataNode.secureMain(DataNode.java:2378) 
     at org.apache.hadoop.hdfs.server.datanode.SecureDataNodeStarter.start(SecureDataNodeStarter.java:78) 
     at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) 
     at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57) 
     at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) 
     at java.lang.reflect.Method.invoke(Method.java:606) 
     at org.apache.commons.daemon.support.DaemonLoader.start(DaemonLoader.java:243) 
    2015-05-19 10:37:36,751 INFO util.ExitUtil (ExitUtil.java:terminate(124)) - Exiting with status 1 
    2015-05-19 10:37:36,752 INFO datanode.DataNode (StringUtils.java:run(659)) - SHUTDOWN_MSG: 
    /************************************************************ 
    SHUTDOWN_MSG: Shutting down DataNode at arjun-ubuntu1404/127.0.1.1 

И еще это то, что я имею в консоли.

[email protected]:/# /usr/hdp/current/hadoop-hdfs-datanode/../hadoop/sbin/hadoop-daemon.sh --config $HADOOP_CONF_DIR start datanode 
starting datanode, logging to /var/log/hadoop/hdfs/hadoop-hdfs-datanode-arjun-ubuntu1404.out 
[email protected]:/# jps 
5240 SecondaryNameNode 
5017 NameNode 
6368 Jps 

Как это можно решить?

+0

Вы можете добавить '/ вар/Журнал/Hadoop/HDFS/Hadoop-HDFS-DataNode-Арджун-ubuntu1404.log' –

+0

@RamananR благодарит вас за ответ, я уже размещен как содержимое файла журнала выше – arjun

+0

Вы отправили '.out' not' .log' –

ответ

0

Сначала удалите все содержимое из папки HDFS:

Значение hadoop.tmp.dir

rm -rf /grid/hadoop/hdfs 

Убедитесь, что реж имеет право владельца и разрешения

(Имя пользователя согласно вашей системе)

sudo chown hduser:hadoop -R /grid/hadoop/hdfs 
sudo chmod 777 -R /grid/hadoop/hdfs 

Формат namenode:

hadoop namenode -format 

Попробуйте это:

sudo chown -R hdfs:hadoop /grid/hadoop/hdfs/dn 
sudo chmod -R 755 /grid/hadoop/hdfs/dn 

запустить все процессы снова

+0

Я сделал этот шаг уже сейчас, столкнувшись с другой ошибкой. ошибка - операция не разрешена, и весь указанный каталог недействителен. – arjun

+0

Операция не разрешена для какой команды? –

+0

разрешение для каталога datanode теперь 750, когда я запускаю datanode, он показывает, что каталог не читается и говорит, что все каталоги, определенные в DFS_DATA_DIR, являются недопустимыми. И если переход с изменением на 777 показывается, операция не предается в той же точке – arjun