Я выполняю несколько скриптов PIG: скрипт1, script2, script3, script4. В этом я скрипт1 выполняется независимо, а script2,3,4 выполняется параллельно после запуска скриптов. Я даю входной файл размером 7-8 ГБ. Поэтому после выполнения скрипта1 я наблюдаю, что вместо параллельного выполнения скрипта 2,3,4 выполняется только скрипт2, поскольку он потребляет 33-35 карточек. Другие остаются в одинаковой очереди (значит, скрипт3,4 не получает распределение карт). Из-за этого слишком много времени требует выполнения всех скриптов.Как распределить определенное количество картографов на несколько заданий в Hadoop?
Так что я думаю, что если я смогу установить предел отображения на каждый скрипт, то может потребоваться время для выполнения, будет меньше, поскольку все сценарии могут получить распределение картографов.
Итак, есть ли способ выделить определенное количество картографов для нескольких сценариев?