2016-10-19 2 views
2

У меня есть таблица, как этотpyspark SQL поплавок точности ошибка

+------+------------+ 
    | fruit|fruit_number| 
    +------+------------+ 
    | apple|   20| 
    |orange|   33| 
    | pear|   27| 
    | melon|   31| 
    | plum|   8| 
    |banana|   4| 
    +------+------------+ 

Я хочу, чтобы генерировать процент от каждой строки, но когда я подытожить процент колонки я не мог получить 100% Вот код, который я генерировать в pyspark

from pyspark import SparkConf, SparkContext 
    from pyspark.sql import SQLContext, HiveContext,Row 
    sqlContext = HiveContext(sc) 
    from pyspark.sql.types import StringType, IntegerType,  StructType, StructField,LongType 
    from pyspark.sql.functions import sum, mean,col 


    rdd = sc.parallelize([('apple', 20), 
    ('orange',33), 
    ('pear',27), 
    ('melon',31), 
    ('plum',8), 
    ('banana',4)]) 
    schema = StructType([StructField('fruit', StringType(), True), 
       StructField('fruit_number', IntegerType(),True)]) 
    df = sqlContext.createDataFrame(rdd, schema) 
    df.registerTempTable('fruit_df_sql') 

    #total_num = 123 
    df_percent=spark.sql("""select fruit, round(fruit_number/123*100,2) as cnt_percent 
     from fruit_df_sql 
     order by cnt_percent desc """) 

    df_percent.agg(sum('cnt_percent')).show() 

, но я получил результат, как этот

 +----------------+ 
    |sum(cnt_percent)| 
    +----------------+ 
    |   99.99| 
    +----------------+ 

п ot 100%, как справиться с этой ошибкой точности? Спасибо

ответ

2

Изменить round второй параметр, равный 1, и ошибка точности будет выдана. К сожалению, 123 - не самое лучшее число для разделения, и при увеличении точности вы увеличите свою ошибку.

Смежные вопросы