2016-02-12 2 views
2

Я реализую k-mean, и я хочу создать новые центроиды. Но отображение оставляет один элемент! Однако, когда K имеет меньшее значение, например 15, он будет работать нормально.Картирование элементов плохое

Основываясь на этом code у меня есть:

val K = 25 // number of clusters 
val data = sc.textFile("dense.txt").map(
    t => (t.split("#")(0), parseVector(t.split("#")(1)))).cache() 
val count = data.count() 
println("Number of records " + count) 

var centroids = data.takeSample(false, K, 42).map(x => x._2) 
do { 
    var closest = data.map(p => (closestPoint(p._2, centroids), p._2)) 
    var pointsGroup = closest.groupByKey() 
    println(pointsGroup) 
    pointsGroup.foreach { println } 
    var newCentroids = pointsGroup.mapValues(ps => average(ps.toSeq)).collectAsMap() 
    //var newCentroids = pointsGroup.mapValues(ps => average(ps)).collectAsMap() this will produce an error 
    println(centroids.size) 
    println(newCentroids.size) 
    for (i <- 0 until K) { 
    tempDist += centroids(i).squaredDist(newCentroids(i)) 
    } 
    .. 

и в течение цикла, я получаю сообщение об ошибке, что он не будет найти элемент (который не всегда одинакова и зависит от K:

java.util.NoSuchElementException: key not found: 2

Выход перед ошибкой придумывает:

Number of records 27776 
ShuffledRDD[5] at groupByKey at kmeans.scala:72 
25 
24   <- IT SHOULD BE 25 

В чем проблема?


>>> println(newCentroids) 
Map(23 -> (-0.0050852959701492536, 0.005512245104477607, -0.004460964477611937), 17 -> (-0.005459583045685268, 0.0029015278781725795, -8.451635532994901E-4), 8 -> (-4.691649213483123E-4, 0.0025375451685393366, 0.0063490755505617585), 11 -> (0.30361112034069937, -0.0017342255382385204, -0.005751167731061906), 20 -> (-5.839587918939964E-4, -0.0038189763756820145, -0.007067070459859708), 5 -> (-0.3787612396704685, -0.005814121628643806, -0.0014961713117870657), 14 -> (0.0024755681263616547, 0.0015191503267973836, 0.003411769193899781), 13 -> (-0.002657690932944597, 0.0077671050923225635, -0.0034652379980563263), 4 -> (-0.006963114731610361, 1.1751361829025871E-4, -0.7481135105367823), 22 -> (0.015318187079953534, -1.2929035958285013, -0.0044176372190034684), 7 -> (-0.59060773483, -0.006316359116022083, 0.006164669723756913), 16 -> (0.005341800955165691, -0.0017540737037037035, 0.004066574093567247), 1 -> (0.0024547379611650484, 0.0056298656504855955, 0.002504618082524296), 10 -> (3.421068671121009E-4, 0.0045169004751299275, 5.696239049740164E-4), 19 -> (-0.005453716071428539, -0.001450277556818192, 0.003860007248376626), 9 -> (-0.0032921685273631807, 1.8477108457711313E-4, -0.003070412228855717), 18 -> (-0.0026803160958904053, 0.00913904078767124, -0.0023528013698630146), 3 -> (0.005750011594202901, -0.003607098309178754, -0.003615918896940412), 21 -> (0.0024925166025641056, -0.0037607353461538507, -2.1588444871794858E-4), 12 -> (-7.920202960526356E-4, 0.5390774232894769, -4.928884539473694E-4), 15 -> (-0.0018608492323232324, -0.006973787272727284, -0.0027266663434343404), 24 -> (6.151173211963486E-4, 7.081812613784045E-4, 5.612962808842611E-4), 6 -> (0.005323933953732931, 0.0024014750473186123, -2.969338590956889E-4), 0 -> (-0.0015991676750160377, -0.003001317289659613, 0.5384176139563245)) 

Вопрос с соответствующей ошибкой: spark scala throws java.util.NoSuchElementException: key not found: 0 exception


EDIT:

После наблюдения zero323, что два Центроиды были такими же, я изменил код так, что все центроиды уникальны. Однако поведение остается неизменным. По этой причине я подозреваю, что closestPoint() может вернуть тот же индекс для двух центроидов. Вот эта функция:

def closestPoint(p: Vector, centers: Array[Vector]): Int = { 
    var index = 0 
    var bestIndex = 0 
    var closest = Double.PositiveInfinity 
    for (i <- 0 until centers.length) { 
     val tempDist = p.squaredDist(centers(i)) 
     if (tempDist < closest) { 
     closest = tempDist 
     bestIndex = i 
     } 
    } 
    return bestIndex 
    } 

Как сойти с рук? Я запускаю код, как я описываю в Spark cluster.

+0

Спасибо за верх, я очень ценю, потому что я действительно застрял здесь! – gsamaras

+0

Быстрая проверка 'centroids.map (_. ToString) .distinct.size' – zero323

+0

@ zero323 24!Теперь мы проверили, сколько у нас уникальных центроидов? Я могу подтвердить, что две центроиды одинаковы, а другие - уникальные. – gsamaras

ответ

2

Это может произойти в «E-step» (присвоение точек индексам кластеров аналогично E-шагу алгоритма EM), что одному из ваших индексов не будут назначены какие-либо точки. Если это произойдет, тогда вам нужно иметь способ связать этот индекс с какой-то точкой, иначе вы будете заканчивать работу с меньшим количеством кластеров после «М-шага» (присвоение центроидов индексам аналогично M- . шаг алгоритма EM) что-то вроде этого, вероятно, следует работать:

val newCentroids = { 
    val temp = pointsGroup.mapValues(ps => average(ps.toSeq)).collectAsMap() 
    val nMissing = K - temp.size 
    val sample = data.takeSample(false, nMissing, seed) 
    var c = -1 
    (for (i <- 0 until K) yield { 
    val point = temp.getOrElse(i, {c += 1; sample(c) }) 
    (i, point) 
    }).toMap  
} 

Просто заменить этот код на линии вы используете для вычисления newCentroids.

Есть и другие способы решения этой проблемы и выше подход, вероятно, не самые лучшие (это хорошая идея, чтобы называть takeSample несколько раз, один раз для каждой итерации алгоритма к-значат? Что, если data содержит много повторяющихся значений ?, и т. д.), но это простая отправная точка.

Кстати, вы можете подумать о том, как вы можете заменить groupByKey на reduceByKey.

Примечание: Для любопытных здесь приведена ссылка, описывающая сходства между EM-алгоритмом и алгоритмом k-средних: http://papers.nips.cc/paper/989-convergence-properties-of-the-k-means-algorithms.pdf.

+0

Извините, я только заметил, что @ zero323 ответил на вопрос об удовлетворении OP в комментариях. Я буду здесь отвечать, так как считаю, что это все еще полезно. –

+0

Хорошее решение сохранить ответ. Я бы предложил вам обновить свой ответ ссылкой или небольшим описанием алгоритма EM -> Я не знаю об этом, так как я новичок ... – gsamaras

+0

Ошибка: 'type mismatch; найдено: Serializable, required: org.apache.spark.util.Vector, tempDist + = centroids (i) .squaredDist (newCentroids (i)) 'и ошибка в' newCentroids (i) ' – gsamaras