2015-01-12 2 views
0

Я загружаю код Spark1.2.0 из Git и импортирую его в Intellij Idea как проект Maven. Затем я делаю Maven Install против корневого модуля в представлении Maven Projects.Building Spark1.2.0 codebase с IntelliJ Idea

После долгого времени строительства все модули успешно выполнены. Но когда я запускаю LocalPi в IntellijIdea, возникают ошибки компиляции: 1. Класс EventBatch и SparkFlumeProtocol не сгенерированы, они должны быть в пакете org.apache.spark.streaming.flume.sink. 2. Есть пара ошибок в CodeGenerator.scala, жалоба q является членом StringContext.

Я пробовал много раз, чтобы исправить эти проблемы, но не повезло.

+0

Есть ли кто-нибудь, столкнувшийся с этой проблемой? Благодарю. – Tom

ответ

0

Попробуйте нажать кнопку «Создать источники и обновить папки для всех проектов» в окне инструмента «Maven Projects», чтобы вручную генерировать эти источники.

View -> Инструмент для Windows -> Maven проекты

Вы можете также правая кнопка мыши на Спарк Project External Flume мойке и нажмите кнопку Создать Источники и обновление папку.