2015-12-02 4 views
2

Я хочу спросить, если у вас есть какие-либо идеи о том, как я могу указать много условий в pyspark, когда я использую .join()pyspark присоединиться несколько условий

Пример: с улья:

query= "select a.NUMCNT,b.NUMCNT as RNUMCNT ,a.POLE,b.POLE as RPOLE,a.ACTIVITE,b.ACTIVITE as RACTIVITE FROM rapexp201412 b \ 
    join rapexp201412 a where (a.NUMCNT=b.NUMCNT and a.ACTIVITE = b.ACTIVITE and a.POLE =b.POLE )\ 

Но в pyspark я не знаю, как это сделать, потому что следующее:

df_rapexp201412.join(df_aeveh,df_rapexp2014.ACTIVITE==df_rapexp2014.ACTIVITE and df_rapexp2014.POLE==df_aeveh.POLE,'inner') 

не работает !!

+0

могли бы вы плзли вставить сообщение об ошибке для DataFrame.join? или попытайтесь использовать keyBy/join в RDD, он очень хорошо поддерживает условие equi-join. –

ответ

3

Цитируя искровых документы:

(https://spark.apache.org/docs/1.5.2/api/python/pyspark.sql.html?highlight=dataframe%20join#pyspark.sql.DataFrame.join)

join(other, on=None, how=None) Joins with another DataFrame, using the given join expression.

The following performs a full outer join between df1 and df2.

Parameters: other – Right side of the join on – a string for join column name, a list of column names, , a join expression (Column) or a list of Columns. If on is a string or a list of string indicating the name of the join column(s), the column(s) must exist on both sides, and this performs an inner equi-join. how – str, default ‘inner’. One of inner, outer, left_outer, right_outer, semijoin.

>>> df.join(df2, df.name == df2.name, 'outer').select(df.name, df2.height).collect() 
[Row(name=None, height=80), Row(name=u'Alice', height=None), Row(name=u'Bob', height=85)] 


>>> cond = [df.name == df3.name, df.age == df3.age] 
>>> df.join(df3, cond, 'outer').select(df.name, df3.age).collect() 
[Row(name=u'Bob', age=5), Row(name=u'Alice', age=2)] 

Таким образом, вы должны использовать "условие в виде списка" вариант, как и в предыдущем примере.

1
>>> cond = [df.name == df3.name, df.age == df3.age] 
>>> df.join(df3, cond, 'outer').select(df.name, df3.age).collect() 
[Row(name=u'Bob', age=5), Row(name=u'Alice', age=2)] 

Это не с pyspark 1.3.1. Я получаю «AssertionError: joinExprs должен быть Column»

Вместо этого я использовал сырой SQL, чтобы присоединиться кадрами данных, как показано ниже

df.registerTempTable("df") 
df3.registerTempTable("df3") 

sqlContext.sql("Select df.name,df3.age from df outer join df3 on df.name = df3.name and df.age =df3.age").collect() 
Смежные вопросы