2016-10-07 4 views
2

Я пишу часть программного обеспечения, которое должно хранить файлы в hadoop-hdf, и, конечно же, я хочу написать тестовые примеры для этой конкретной функции. К сожалению, когда я пытаюсь построить() MiniDFSCluster, я получаю следующее.initMiniDFSCluster throws NoClassDefFoundError (тестирование клиента hadoop)

16/10/07 16:16:33 INFO hdfs.MiniDFSCluster: starting cluster: numNameNodes=1, numDataNodes=2 
16/10/07 16:16:33 INFO hdfs.MiniDFSCluster: Shutting down the Mini HDFS Cluster 

java.lang.NoClassDefFoundError: org/apache/hadoop/net/StaticMapping 

    at org.apache.hadoop.hdfs.MiniDFSCluster.initMiniDFSCluster(MiniDFSCluster.java:792) 
    at org.apache.hadoop.hdfs.MiniDFSCluster.<init>(MiniDFSCluster.java:475) 
    at org.apache.hadoop.hdfs.MiniDFSCluster$Builder.build(MiniDFSCluster.java:434) 
    at de.tuberlin.cit.storageassistant.ArchiveManagerTest.setUp(ArchiveManagerTest.java:33) 
    at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) 
    at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62) 
    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) 
    at java.lang.reflect.Method.invoke(Method.java:497) 
    at org.junit.runners.model.FrameworkMethod$1.runReflectiveCall(FrameworkMethod.java:50) 
    at org.junit.internal.runners.model.ReflectiveCallable.run(ReflectiveCallable.java:12) 
    at org.junit.runners.model.FrameworkMethod.invokeExplosively(FrameworkMethod.java:47) 
    at org.junit.internal.runners.statements.RunBefores.evaluate(RunBefores.java:24) 
    at org.junit.internal.runners.statements.RunAfters.evaluate(RunAfters.java:27) 
    at org.junit.runners.ParentRunner.runLeaf(ParentRunner.java:325) 
    at org.junit.runners.BlockJUnit4ClassRunner.runChild(BlockJUnit4ClassRunner.java:78) 
    at org.junit.runners.BlockJUnit4ClassRunner.runChild(BlockJUnit4ClassRunner.java:57) 
    at org.junit.runners.ParentRunner$3.run(ParentRunner.java:290) 
    at org.junit.runners.ParentRunner$1.schedule(ParentRunner.java:71) 
    at org.junit.runners.ParentRunner.runChildren(ParentRunner.java:288) 
    at org.junit.runners.ParentRunner.access$000(ParentRunner.java:58) 
    at org.junit.runners.ParentRunner$2.evaluate(ParentRunner.java:268) 
    at org.junit.runners.ParentRunner.run(ParentRunner.java:363) 
    at org.junit.runner.JUnitCore.run(JUnitCore.java:137) 
    at com.intellij.junit4.JUnit4IdeaTestRunner.startRunnerWithArgs(JUnit4IdeaTestRunner.java:69) 
    at com.intellij.rt.execution.junit.JUnitStarter.prepareStreamsAndStart(JUnitStarter.java:234) 
    at com.intellij.rt.execution.junit.JUnitStarter.main(JUnitStarter.java:74) 
    at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) 
    at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62) 
    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) 
    at java.lang.reflect.Method.invoke(Method.java:497) 
    at com.intellij.rt.execution.application.AppMain.main(AppMain.java:144) 
Caused by: java.lang.ClassNotFoundException: org.apache.hadoop.net.StaticMapping 
    at java.net.URLClassLoader.findClass(URLClassLoader.java:381) 
    at java.lang.ClassLoader.loadClass(ClassLoader.java:424) 
    at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:331) 
    at java.lang.ClassLoader.loadClass(ClassLoader.java:357) 
    ... 31 more 


Process finished with exit code 255 

это мой Hadoop зависимости pom.xml:

<dependency> 
     <groupId>org.apache.hadoop</groupId> 
     <artifactId>hadoop-common</artifactId> 
     <version>${hadoop.version}</version> 
    </dependency> 

    <dependency> 
     <groupId>org.apache.hadoop</groupId> 
     <artifactId>hadoop-hdfs</artifactId> 
     <version>${hadoop.version}</version> 
    </dependency> 

    <dependency> 
     <groupId>org.apache.hadoop</groupId> 
     <artifactId>hadoop-hdfs</artifactId> 
     <type>test-jar</type> 
     <version>${hadoop.version}</version> 
     <scope>test</scope> 
    </dependency> 

Является ли это даже правильный способ отладки инструмента, который использует Hadoop, и если да, то как я могу получить эту работу. Я использую классический пример кода для своих тестов:

@org.junit.Before 
public void setUp() throws Exception { 
//  super.setUp(); 
    Configuration conf = new Configuration(); 
//  conf.set("fs.defaultFS", "hdfs://localhost:9000"); 
    File baseDir = new File("./target/hdfs/").getAbsoluteFile(); 
    FileUtil.fullyDelete(baseDir); 
    conf.set(MiniDFSCluster.HDFS_MINIDFS_BASEDIR, baseDir.getAbsolutePath()); 
    dfsCluster = new MiniDFSCluster 
      .Builder(conf) 
      .checkExitOnShutdown(true) 
      .numDataNodes(2) 
      .format(true) 
      .racks(null) 
      .build(); 
    hdfsURI = "hdfs://localhost:"+ dfsCluster.getNameNodePort() + "/"; 
} 

@org.junit.After 
public void tearDown() throws Exception { 
    if (dfsCluster != null) { 
     dfsCluster.shutdown(); 
    } 
} 

любая помощь или рекомендации?

ответ

2

Столкнувшись с той же проблемой, удалось решить с добавлением зависимость к hadoop-common:tests:

<dependency> 
    <groupId>org.apache.hadoop</groupId> 
    <artifactId>hadoop-common</artifactId> 
    <version>${hadoop.version}</version> 
    <classifier>tests</classifier> 
</dependency> 

Соответствующий класс отсутствует в hadoop-common артефакт используется для кода производства.

Смежные вопросы