2015-09-21 3 views
2

При компиляции Spark с Scala 2.11 мы получаем ошибки, связанные с spark-sql.Compile Spark для Scala 2.11

build/mvn -Dscala-2.11 -DskipTests clean package 

В искрообразование документы говорят: Спарк еще не поддерживает его JDBC компонент для Scala 2.11.

Должен быть способ скомпилировать без этого.

Как скомпилировать Spark для Scala 2.11?

ответ

3

Перед сборкой перспективы:

./dev/change-scala-version.sh 2.11 

изменить версию Scala. Как ни странно, это не упоминается в документах.

Кроме того, ошибка, вероятно, не связана непосредственно с spark-sql, а скорее с зависимостью, которая была скомпилирована с помощью Scala 2.10.

Смежные вопросы