Я создал набор алгоритмов и помощников в Scala для Spark, работающих с различными форматами измеренных данных. Все они основаны на Hadoop's FileInputFormat
. Я также создал некоторых помощников, чтобы облегчить работу с данными временных рядов из базы данных Cassandra. Мне теперь нужны некоторые расширенные функции, которые уже присутствуют в Thunder, а также некоторые из моих коллег, которые должны работать с этими вспомогательными функциями, хотят использовать Python. Можно ли как-то использовать эти вспомогательные функции из python или мне нужно их переопределить?Вызов алгоритмов/функций на основе JVM из pySpark возможен?
Я прочитал много документов и обнаружил, что вы можете загружать дополнительные банки с помощью pyspark, но не как использовать функции.
Фактически возможно. – eliasah
@eliasah Это зависит, не так ли? Вы можете инициировать преобразования высокого уровня, но это невозможно для работника. – zero323
Это правда! Я думал о другом, как то, что я сделал [здесь] (http://stackoverflow.com/a/33500704/3415409) – eliasah