2015-09-14 2 views
0

я установил все компоненты Cloudera 5 в одной машине: имя узел, DataNode, оттенок, цвет, свинья, oozie, пряжа, Hbase ...свинья скрипт повесить навсегда в сердце бить

я запускаю следующий сценарий свиньи в оболочка:

Судо -u HDFS свинья

, а затем в перспективе свиньи оболочки

data = LOAD '/user/test/text.txt' as (text:CHARARRAY) ; 

DUMP data; 

скрипт работает хорошо

Но при запуске этого сценария на оттенок браузеров Query Editor/Свиньи редактор он застрял и ниже журнала:

2015-09-14 14:07:06,847 [uber-SubtaskRunner] INFO org.apache.pig.backend.hadoop.executionengine.mapReduceLayer.MapReduceLauncher - More information at: http://HadoopTestEnv:50030/jobdetails.jsp?jobid=job_1442214247855_0002 
2015-09-14 14:07:06,884 [uber-SubtaskRunner] INFO org.apache.pig.backend.hadoop.executionengine.mapReduceLayer.MapReduceLauncher - 0% complete 
2015-09-14 14:07:07,512 [communication thread] INFO org.apache.hadoop.mapred.TaskAttemptListenerImpl - Progress of TaskAttempt attempt_1442214247855_0001_m_000000_0 is : 1.0 
Heart beat 
2015-09-14 14:07:37,545 [communication thread] INFO org.apache.hadoop.mapred.TaskAttemptListenerImpl - Progress of TaskAttempt attempt_1442214247855_0001_m_000000_0 is : 1.0 
Heart beat 
2015-09-14 14:08:07,571 [communication thread] INFO org.apache.hadoop.mapred.TaskAttemptListenerImpl - Progress of TaskAttempt attempt_1442214247855_0001_m_000000_0 is : 1.0 
Heart beat 

Я с использованием пряжи-Utils сценарий, чтобы поддержать меня конфиг пряжи-site.xml и marped -site.xml

python yarn-ulti.spy -c 6 -m 16 -d 1 -k True 
Using cores=4 memory=16GB disks=1 hbase=True 
Profile: cores=6 memory=12288MB reserved=4GB usableMem=12GB disks=1 
Num Container=3 
Container Ram=4096MB 
Used Ram=12GB 
Unused Ram=4GB 
yarn.scheduler.minimum-allocation-mb=4096 
yarn.scheduler.maximum-allocation-mb=12288 
yarn.nodemanager.resource.memory-mb=12288 
mapreduce.map.memory.mb=2048 
mapreduce.map.java.opts=-Xmx1638m 
mapreduce.reduce.memory.mb=4096 
mapreduce.reduce.java.opts=-Xmx3276m 
yarn.app.mapreduce.am.resource.mb=2048 
yarn.app.mapreduce.am.command-opts=-Xmx1638m 
mapreduce.task.io.sort.mb=819 

Сценарий все еще висит и сердце билось навсегда, любой мне помогает!

Вот моя конфигурация: пряжа site.xml

<property> 
    <name>yarn.nodemanager.resource.memory-mb</name> 
     <value>12288</value> 
      </property> 

<property> 
    <name>yarn.nodemanager.resource.cpu-vcores</name> 
     <value>6</value> 
      </property> 


    <property> 
     <name>yarn.scheduler.minimum-allocation-mb</name> 
      <value>4096</value> 
      </property> 

    <property> 
     <name>yarn.scheduler.maximum-allocation-mb</name> 
      <value>12288</value> 
      </property> 

<property> 
     <name>yarn.app.mapreduce.am.resource.mb</name> 
      <value>2048</value> 
      </property> 

<property> 
     <name>yarn.app.mapreduce.am.command-opts</name> 
      <value>-Xmx1638m</value> 
      </property> 

Mapred-site.xml

<property> 
     <name>yarn.app.mapreduce.am.resource.mb</name> 
     <value>1024</value> 
    </property> 
    <property> 
     <name>yarn.app.mapreduce.am.command-opts</name> 
     <value>-Xmx768m</value> 
    </property> 


<property> 
    <name>yarn.app.mapreduce.am.staging-dir</name> 
     <value>/user</value> 
      </property> 

<property> 
    <name>mapreduce.map.java.opts</name> 
     <value>-Xmx1638m</value> 
      </property> 

    <property> 
     <name>mapreduce.reduce.java.opts</name> 
      <value>-Xmx3276m</value> 
      </property> 

    <property> 
     <name>mapreduce.map.memory.mb</name> 
      <value>2048</value> 
      </property> 

    <property> 
     <name>mapreduce.reduce.memory.mb</name> 
      <value>4096</value> 
      </property> 


<property> 
     <name>mapreduce.task.io.sort.mb</name> 
      <value>819</value> 
      </property> 

<property> 
    <name>mapreduce.map.cpu.vcores</name> 
      <value>2</value> 
         </property> 

<property> 
    <name>mapreduce.reduce.cpu.vcores</name> 
       <value>2</value> 
</property> 

ответ

1

Свинья приложение подает рабочие места Oozie, которые будут использовать один слот MR в дополнении к что делает сценарий.

Замок обычно происходит из-за submission deadlocks like gotcha #5 или имеет только одно доступное слот для задач в вашем кластере.

+0

Спасибо за ваш ответ, я прочитал и отредактировал свой вопрос, добавив несколько строк о настройке пряжи и карты-сайта, но сценарий все еще висит, вы можете просмотреть и дать мне больше информации. –

+0

Привет, Romain, основываясь на вашей подсказке, я решил свою проблему, в моей ситуации проблема в блоке ресурсов процессора, я удалил конфигурацию о mapreduce.map | redure.cpu.vcores, просто позвольте этому defaut value, а затем работать хорошо !! –

Смежные вопросы