2017-01-17 4 views
0

У нас есть 4 datanode HDFS-кластера ... на каждом узле данных около 98 гб имеется большое количество пространства ... но когда я смотрю на информацию о датаноме .. это только с использованием около 10GB ...Как увеличить пространство для dfs на кластере HDFS

DataNode Information

Как мы можем сделать его использовать все 98gb, а не бежать из космоса, как показано на изображении

это HDFS-site.xml по имени узел

<configuration> 

    <property> 
     <name>dfs.replication</name> 
     <value>2</value> 
    </property> 

    <property> 
     <name>dfs.name.dir</name> 
     <value>file:///test/hadoop/hadoopinfra/hdfs/namenode</value> 
    </property> 

    <property> 
     <name>hadoop.tmp.dir</name> 
     <value>file:///tmp/hadoop/data</value> 
    </property> 

    <property> 
     <name>dfs.datanode.du.reserved</name> 
     <value>2368709120</value> 
    </property> 

    <property> 
     <name>dfs.datanode.fsdataset.volume.choosing.policy</name> 
     <value>org.apache.hadoop.hdfs.server.datanode.fsdataset.AvailableSpaceVolumeChoosingPolicy</value> 
    </property> 

    <property> 
     <name>dfs.datanode.available-space-volume-choosing-policy.balanced-space-preference-fraction</name> 
     <value>1.0</value> 
    </property> 

</configuration> 

это HDFS-site.xml под узлом данных

<configuration> 

    <property> 
     <name>dfs.replication</name> 
     <value>2</value> 
    </property> 

    <property> 
     <name>dfs.data.dir</name> 
     <value>file:///test/hadoop/hadoopinfra/hdfs/datanode</value> 
    </property> 

    <property> 
     <name>hadoop.tmp.dir</name> 
     <value>file:///tmp/hadoop/data</value> 
    </property> 

    <property> 
     <name>dfs.datanode.du.reserved</name> 
     <value>2368709120</value> 
    </property> 

    <property> 
     <name>dfs.datanode.fsdataset.volume.choosing.policy</name> 
     <value>org.apache.hadoop.hdfs.server.datanode.fsdataset.AvailableSpaceVolumeChoosingPolicy</value> 
    </property> 

    <property> 
     <name>dfs.datanode.available-space-volume-choosing-policy.balanced-space-preference-fraction</name> 
     <value>1.0</value> 
    </property> 

</configuration> 

98gb находится под/тест

enter image description here

Пожалуйста, дайте нам знать, если мы пропустили что-нибудь в конфигурации

ответ

0

Посмотрите на dfs.datanode.data.dir в hdfs-site.xml. Это свойство будет контролировать все каталоги, которые могут использоваться для хранения блоков DFS.

Documentation Link

Так что на вас машину выполнить «DF -h», который должен перечислить все точки монтирования, которые составляют 98 ГБ. Затем в каждой точке монтирования решайте, какой каталог можно использовать для хранения данных блока HDFS, и добавьте их под разделение hdfs-site.xml для dfs.datanode.data.dir. Затем выполните переназначение наменода и все службы узлов данных.

И от отредактированного поста:

<property> 
     <name>dfs.data.dir</name> 
     <value>file:///test/hadoop/hadoopinfra/hdfs/datanode</value> 
    </property> 

Это не должно быть файла: //. Он должен выглядеть так:

<property> 
     <name>dfs.data.dir</name> 
     <value>/test/hadoop/hadoopinfra/hdfs/datanode</value> 
    </property> 

То же самое для других объектов.

+0

Спасибо за ваш ответ Venkat ... Я добавил hdfs-site.xml для узла имен и узла данных. Сообщите нам, если что-то нужно изменить в конфигурации – user2359997

+0

Я обновил свой ответ. Надеюсь это поможет. – Venkat

+0

Спасибо за обновление Venkat .. я упоминал в вопросе, что 98gb установлен под «/ test», который я уже включил в hdfs-site.xml – user2359997

Смежные вопросы