Я пытаюсь сравнить программу на кластере Azure с помощью Spark. Ранее мы запускали это на EC2 и знаем, что достаточно 150 ГБ ОЗУ. Я попробовал несколько настроек для исполнителей и дал им 160-180 ГБ ОЗУ, но независимо от того, что я делаю, программа умирает из-за того, что исполнители запрашивают больше памяти.Не удается запустить интенсивную программу памяти на Spark через YARN
Что я могу сделать? Есть ли больше вариантов запуска, которые я должен рассмотреть, я пробовал все мыслимые настройки исполнителя, и ничто, кажется, не хочет работать. У меня полная потеря.
Этот вопрос очень широк. Вы можете попробовать сначала, указав более подробное описание, чем «программа умирает». Мы даже не знаем, какие варианты вы сейчас рассматриваете. Какую версию искры вы используете? Запуск по какой версии Hadoop? Сколько памяти для исполнителей? Водитель ? – eliasah
@eliasah Я просто не знаю очень много, подробности мудрый, он действительно просто умирает, у него есть ошибки памяти исполнителя и, в конечном итоге, «слишком много неудач исполнителя». Что касается другой информации, я использую 1.6.0, не знаю версию Hadoop (какая бы версия HDInsight не использовала). Я попробовал несколько настроек исполнителя, ни один из них не работает. –
Можете ли вы поделиться командой отправки, которая выполняет ваше приложение? – eliasah