Я просканировал сайт с использованием NUTCH 1.2. Теперь я хочу интегрировать это с solr 3.6. Проблема заключается в том, когда я выдавать команду
$ bin/nutch solrindex //localhost:8080/solr/ crawl/crawldb crawl/linkdb crawl/segments/*
ошибка возникаетNutch 1.2 Solr 3.6 проблема интеграции
SolrIndexer: starting at 2013-07-08 14:52:27
java.io.IOException: Job failed!
Пожалуйста, помогите мне решить эту проблему
Вот мой Nutch журнал
java.lang.RuntimeException: Invalid version (expected 2, but 60) or the data in not in 'javabin' format
at org.apache.solr.common.util.JavaBinCodec.unmarshal(JavaBinCodec.java:99)
at org.apache.solr.client.solrj.impl.BinaryResponseParser.processResponse(BinaryResponseParser.java:41)
at org.apache.solr.client.solrj.impl.CommonsHttpSolrServer.request(CommonsHttpSolrServer.java:469)
at org.apache.solr.client.solrj.impl.CommonsHttpSolrServer.request(CommonsHttpSolrServer.java:249)
at org.apache.solr.client.solrj.request.AbstractUpdateRequest.process(AbstractUpdateRequest.java:105)
at org.apache.solr.client.solrj.SolrServer.add(SolrServer.java:69)
at org.apache.solr.client.solrj.SolrServer.add(SolrServer.java:54)
at org.apache.nutch.indexer.solr.SolrWriter.close(SolrWriter.java:75)
at org.apache.nutch.indexer.IndexerOutputFormat$1.close(IndexerOutputFormat.java:48)
at org.apache.hadoop.mapred.ReduceTask.runOldReducer(ReduceTask.java:474)
at org.apache.hadoop.mapred.ReduceTask.run(ReduceTask.java:411)
at org.apache.hadoop.mapred.LocalJobRunner$Job.run(LocalJobRunner.java:216)
2013-07-08 15:17:39,539 ERROR solr.SolrIndexer - java.io.IOException: Job f
Вы можете проверить журналы solr и nutch где ошибка будет упомянута в деталях – Jayendra
@Jayendra эй .. Пожалуйста, можете ли вы сказать мне, где найти эти журналы –
nutch использует hasoop, лежащий в основе, поэтому проверьте в папке nucth для hadoop.log файл. – Jayendra