В настоящее время мы редактируем конкретный модуль в Spark. Мы используем искровое ядро https://github.com/ibm-et/spark-kernel для запуска всех наших искровых заданий. Итак, что мы сделали, снова скомпилируем код, который мы редактировали. Это создает файл jar. Однако мы не знаем, как указать код в файл jar.Редактирование Spark Module в Spark-kernel
Похоже, что он снова ссылается на старый сценарий, а не на недавно отредактированный и вновь скомпилированный. У вас есть идея о том, как модифицировать некоторые искровые пакеты/модули и отражать изменения с помощью искрового ядра? Если мы не будем использовать искровое ядро, можно ли, например, отредактировать конкретный модуль в искровом случае, модуль ALS в искровом режиме: https://github.com/apache/spark/blob/master/mllib/src/main/scala/org/apache/spark/ml/recommendation/ALS.scala. Благодаря!
Спасибо за ваш ответ. У вас есть идея, как переупаковать и переустановить искру. Я использую предварительную сборку, которую мы можем скачать здесь: http://spark.apache.org/downloads.html, используя искру-1.5.1-bin-hadoop2.4, затем используйте искровое ядро. Я следую за установкой искрового ядра из документации: https://github.com/ibm-et/spark-kernel/wiki/Getting-Started-with-the-Spark-Kernel. Вот как я установил Spark в автономном режиме –