Я хотел бы использовать свое приложение Spark jars. Больше в бетоне у меня есть одна банка mllib, которая еще не выпущена, которая содержит исправленную ошибку BisectingKMeans. Итак, моя идея - использовать его в моем искровом кластере (на местном уровне он отлично работает).Игнорировать Spark Cluster Собственные банки
Я пробовал много вещей: extraclasspath, userClassPathFirst, jars option ... много вариантов, которые не работают. Моя последняя идея - использовать правило Shade sbt для изменения всех пакетов org.apache.spark. * В shadespark. *, Но когда я его развертываю, он все еще использует кластерные искровые банки.
Любая идея?
Какая часть этого видео Гровер или Маласка говорит о плагине затенения? – eliasah
@eliasah В 23 мин. Я отредактировал ссылку выше. – rdeboo
Я пробовал это решение и, кажется, работал, каждый пакет был переименован, но все еще принимал искровые баночки. Временным решением было заменить mllib jar Spark (в папке с баночками) и использовать более новую, и это сработало. - – Gorka