2012-06-15 3 views
0

Я хочу создать приложение java. которые могут быть развернуты на Hadoop, целью которого является ниже:Анализ файла журнала Hadoop

  • У меня есть много большого лог-файлы с различных серверов (журналы смокинга, журналы Websphere и IIS журналов)
  • я хочу проанализировать эти большие файлы для создания в доклад, в котором говорится, что из Тукс, это много ошибок, из Websphere этого многие ошибки/предупреждения и т.д.

Поэтому мне нужна помощь в данный момент времени с моим ограниченным знанием Hadoop

  • Большая часть карты уменьшает алгоритм. работает с файлами того же типа, не в моем случае, где файлы журналов из разных источников (Tux, Websphere, IIS и т. д.)
  • Как мне создать функции map() и reduce() в этом случае
  • Как сделать Я хранить отчеты о работе (для бывших: от Tux ошибки/предупреждения, от Websphere ошибка/предупреждение/информация) комбинации и т.д.

заранее спасибо

ответ

0

апач водослива является ответом для этого сценария

Смежные вопросы