Наш вопрос: (мы бежим пряжу-клиент)Свеча на провал ПРЯЖИ запустить NodeManager и ResourceManager
Это происходит как ./spark-shell
scala> sc.parallelize(1 to 1000).collect()
и ./ pyspark
>>> sc.parallelize([1,2,3,4]).collect()
выход оболочки из основных рабочих мест выше выводит эту ошибку
WARN YarnClientClusterScheduler: Начальная работа не принимала никаких ресурсов; проверить кластер пользовательского интерфейса для обеспечения того, чтобы работники зарегистрированы и имеет достаточный объем памяти
- Бревно вывода эта строка в непрерывной последовательности: (time_stamp и port_number изменение, но каждое задание выводит этой ошибке
ОШИБКА ExecutorLauncher: Не удалось подключиться к драйверу на LOCALHOST: < pORT_NUMBER>, повторное подключение ...
- Мы имеем SPARK_LOCAL_IP = множество LOCALHOST в нашем spark-env.sh (все остальное не в состоянии даже создать экземпляр СБН в Repl, примеры: ip_address, HOSTNAME и комментирование полностью)
Наша установка:
- Использование практически все настройки по умолчанию пряжу в искрового defaults.conf и spark-env.sh
- Это мощная аппаратная:
- 128 GB на узел,
- 16 ядер,
- 2 ТБ физической памяти
- Мастер Спарк находится на своем собственном узле, так как являются ResourceManager, и NodeManager (около 5 узлов данных)
Ошибки: (в REPL)
WARN YarnClientClusterScheduler : Начальная работа не принимала никаких ресурсов; проверить кластера пользовательский интерфейс для обеспечения того, чтобы работники зарегистрированы и имеют достаточный объем памяти
(в журналах ПРЯЖИ)
15/09/12 13:03:00 INFO ExecutorLauncher: Ожидание водителя Спарк быть достижимы. 15/09/12 13:03:00 ОШИБКА ExecutorLauncher: Не удалось подключиться к драйверу на LOCALHOST: 45790, повторное подключение ...
Можете ли вы поделиться командой spark-submit, которая используется для запуска этого? –