0

Привет, я пытаюсь запустить SimpleKmeanClustering Код, из Github, чтобы посмотреть, как работает кластеризация, Я могу усвоить код на моих окнах Eclipse.Класс не найден Исключение в KMeanClustering - Mahout

Я сделал банку моего проекта, я хочу запустить его на одном узле кластера Hadoop (CHD-4.2.1), с установленным на нем махаутом. Примеры mahout отлично работают на этом кластере, поэтому нет проблем с установкой.

Я использую следующую команду в команде Promt, чтобы запустить мою банку, я не уверен, правильно ли я пытаюсь.

пользователь @ INFPH01463U: ~ $ погонщик баночка /home/user/apurv/Kmean.jar tryout.SimpleKMeansClustering

Я получил соответствующие ошибки

MAHOUT_LOCAL не установлен; добавление HADOOP_CONF_DIR в путь к классам. Запуск на hadoop, используя/usr/lib/hadoop/bin/hadoop и HADOOP_CONF_DIR =/etc/hadoop/conf MAHOUT-JOB: /usr/lib/mahout/mahout-examples-0.7-cdh4.3.0-job. баночка 13/06/06 14:42:18 WARN driver.MahoutDriver: Невозможно добавить класс: банка java.lang.ClassNotFoundException: банка в java.net.URLClassLoader $ 1.Run (URLClassLoader.java:202) в java.security.AccessController.doPrivileged (Native Method) at java.net.URLClassLoader.findClass (URLClassLoader.java:190) в java.lang.ClassLoader.loadClass (ClassLoader.java:306) в java.lang.ClassLoader .loadClass (ClassLoader.java:247) по адресу java.lang.Class.forName0 (собственный метод) at java.lang.Class.forName (Class.java:169) at org.apache.mahout.driver.MahoutDriver.addClass (MahoutDriver.java:236) at org.apache.mahout.driver.MahoutDriver.main (MahoutDriver. Java: 128) на sun.reflect.NativeMethodAccessorImpl.invoke0 (нативный метод) на sun.reflect.NativeMethodAccessorImpl.invoke (NativeMethodAccessorImpl.java:39) на sun.reflect.DelegatingMethodAccessorImpl.invoke (DelegatingMethodAccessorImpl.java:25) в java.lang.reflect.Method.invoke (Method.java:597) на org.apache.hadoop.util.RunJar.main (RunJar.java:208) 13.06.06 14:42:18 WARN драйвер. MahoutDriver: Нет jar.props, найденный на classpath, будет использовать аргументы командной строки только Неизвестная программа 'jar' . Допустимыми именами программ являются: arff.vector:: Генерировать векторы из файла или каталога ARFF baumwelch:: алгоритм Baum-Welch для неконтролируемый тренировочный тент HMM:: Canopy clustering cat:: Распечатать файл или ресурс в качестве моделей логистической регрессии будет видеть его
cleansvd:: Очистка и проверка выходного SVD clusterdump:: самосвала выход кластера текста clusterpp:: Группы кластеризация Выходные данные в кластеры cmdump:: Дамп матрицы путаницы в HTML или текстовые форматы
CVB:: LDA через Свернутые вариации Байес (0-й производный пример)
cvb0_local:: LDA через сложенную вариацию Байес в локальной памяти.
Дирихля:: Дирихль Кластеризация eigencuts:: Eigencuts спектрален кластеризация evaluateFactorization:: вычислить СКО и МАЮ рейтинга матричной прогонки против зондов fkmeans:: Fuzzy K-средства кластеризации FPG:: Частое шаблон hmmpredict Рост:: Генерация случайные последовательность наблюдений по заданным значениям HMM:: Вычисление сходства позиций предметов для совместной работы на основе предметов фильтрация kmeans:: K-означает кластеризация lucene.vector:: Generate Векторы из индекса матрицы Lucene:: матрица дампа в CSV format matrixmult:: Возьмите произведение двух матриц, означающее «ведение»:: Среднее значение Смещение кластеризации minhash:: Запуск кластеризации Minhash parallelALS:: ALS-WR факторизация рейтинговой матрицы recommendfactorized:: рекомендации Compute, используя разложение рейтинговой матрицы
recommenditembased:: рекомендации Compute с использованием элемента на основе совместной фильтрации regexconverter:: Преобразование текстовых файлов на на линии основе по регулярные выражения RowId:: Карта SequenceFile в {SequenceFile, SequenceFile} rowsimilarity:: Рассчитывают попарных сходств строк матрицы runAdaptiveLogistic:: оценки новых производственные данных с использованием, вероятно, обученная и проверенной AdaptivelogisticRegression модели runlogistic:: Запустить логистику регрессионная модель с данными CSV seq2encoded: Закодированная разреженное Вектора поколение из последовательности Текстовых файлов seq2sparse:: разреженный Вектора поколение из последовательности Текстовых файлов seqdirectory:: Генерация файлов последовательность (из текста) из каталога seqdumper:: Generic Sequence самосвал файла seqmailarchives:: Создает SequenceFile из каталога , содержащий сжатый почтовые архивы seqwiki:: Википедия XML дампа spectralkmeans файла последовательности: Спектральные к-средства кластеризации раскола:: данные Split ввода в тест и поезд наборы splitDataset:: разделить рейтинг набор данных в учебные и пробные части ssvd:: Stochastic SVD svd:: Lanczos Singular Value Decomposition testnb: : Протестируйте Vector-bas ред байесовский классификатор trainAdaptiveLogistic:: Поезд AdaptivelogisticRegression модель trainlogistic:: Поезд логистической регрессии с использованием стохастического градиентного спуска trainnb:: Поезд Вектор на основе Байеса классификатор транспонирования:: Возьмите транспонирование матрицы validateAdaptiveLogistic:: Проверка в AdaptivelogisticRegression model from hold-out data set vecdist: : вычислить расстояния между множеством векторов (или кластером или Canopy, они должны вписываться в память) и список векторов vectordump:: Дамп-векторы из файла последовательности в текст viterbi:: Viterbi декодирование скрытых состояний с заданной последовательностью выходных состояний 13/06/06 14:42:18 INFO driver.MahoutDriver: программа взята 2 мс (Протокол: 3.3333333333333335E-5)

Вот мой код, который я использую:

Код

package tryout; 

import java.io.File; 
import java.io.IOException; 
import java.util.ArrayList; 
import java.util.List; 

import org.apache.hadoop.conf.Configuration; 
import org.apache.hadoop.fs.FileSystem; 
import org.apache.hadoop.fs.Path; 
import org.apache.hadoop.io.IntWritable; 
import org.apache.hadoop.io.LongWritable; 
import org.apache.hadoop.io.SequenceFile; 
import org.apache.hadoop.io.Text; 
import org.apache.mahout.math.RandomAccessSparseVector; 
import org.apache.mahout.math.Vector; 
import org.apache.mahout.math.VectorWritable; 
import org.apache.mahout.clustering.kmeans.Kluster; 
import org.apache.mahout.clustering.classify.WeightedVectorWritable; 
import org.apache.mahout.clustering.kmeans.KMeansDriver; 
import org.apache.mahout.common.distance.EuclideanDistanceMeasure; 

public class SimpleKMeansClustering { 
    public static final double[][] points = { {1, 1}, {2, 1}, {1, 2}, 
               {2, 2}, {3, 3}, {8, 8}, 
               {9, 8}, {8, 9}, {9, 9}};  


    public static void writePointsToFile(List<Vector> points, 
      String fileName,FileSystem fs,Configuration conf) throws IOException {  
     Path path = new Path(fileName);  
     @SuppressWarnings("deprecation") 
     SequenceFile.Writer writer = new SequenceFile.Writer(fs, conf,path, LongWritable.class, VectorWritable.class);  

     long recNum = 0;  
     VectorWritable vec = new VectorWritable();  
     for (Vector point : points) {  
     vec.set(point);  
      writer.append(new LongWritable(recNum++), vec);  
     } writer.close(); 
    }  

    public static List<Vector> getPoints(double[][] raw) {  
     List<Vector> points = new ArrayList<Vector>();  
     for (int i = 0; i < raw.length; i++) {  
      double[] fr = raw[i];  
      Vector vec = new RandomAccessSparseVector(fr.length);  
      vec.assign(fr);  
      points.add(vec);  
     }  
     return points; 
    }  
    public static void main(String args[]) throws Exception {   
     int k = 2;   
     List<Vector> vectors = getPoints(points);   
     File testData = new File("testdata");  
     if (!testData.exists()) {  
      testData.mkdir();  
     }  
     testData = new File("testdata/points");  
     if (!testData.exists()) {  
      testData.mkdir();  
     }   
     Configuration conf = new Configuration();  
     FileSystem fs = FileSystem.get(conf);  
     writePointsToFile(vectors, "testdata/points/file1", fs, conf);   
     Path path = new Path("testdata/clusters/part-00000");  
     @SuppressWarnings("deprecation") 
     SequenceFile.Writer writer = new SequenceFile.Writer(fs, conf,path, Text.class, Kluster.class); 
     for (int i = 0; i < k; i++) {  
      Vector vec = vectors.get(i);  
      Kluster cluster = new Kluster(vec, i, new EuclideanDistanceMeasure());  
      writer.append(new Text(cluster.getIdentifier()), cluster);  
     }  
     writer.close();   

     KMeansDriver.run(conf, new Path("testdata/points"), new Path("testdata/clusters"),  
       new Path("output"), new EuclideanDistanceMeasure(), 0.001, 10, 
       true,0.0, false);   
     @SuppressWarnings("deprecation") 
     SequenceFile.Reader reader = new SequenceFile.Reader(fs,new Path("output/" + Kluster.CLUSTERED_POINTS_DIR+ "/part-m-00000"), conf);   
     IntWritable key = new IntWritable(); 
     WeightedVectorWritable value = new WeightedVectorWritable();  
     while (reader.next(key, value)) {  
      System.out.println(value.toString() + " belongs to cluster " + key.toString());  
     }  
     reader.close(); 
    } 
} 

Может кто-нибудь Веди меня за это ...

ответ

Смежные вопросы