Вы хотите, чтобы SparkContext.parallelize(...)
создал JavaRDD и SQLContext.createDataFrame(...)
для создания данных.
JavaRDD rdd = sc.parallelize(Arrays.asList(1, 2, 3, 4));
Если вы после создания параллельного списка объектов с тремя значениями, то вы хотите:
@Test
public void test() {
JavaSparkContext sc = ...
SQLContext sqlContext = new SQLContext(sc);
JavaRDD<Counter> counters = sc.parallelize(Arrays.asList(new Counter(784512, 35, 40)));
DataFrame countersDF = sqlContext.createDataFrame(counters, Counter.class);
System.out.println(counters.collect());
System.out.println(countersDF.collectAsList());
}
public static class Counter implements Serializable{
private final int id;
private final int m_count;
private final int f_count;
Counter(int id, int m_count, int f_count) {
this.id = id;
this.m_count = m_count;
this.f_count = f_count;
}
public String toString() {
return id + " " + m_count + " " + f_count;
}
// getters
}