0
Я хочу создать приложение java. которые могут быть развернуты на Hadoop, целью которого является ниже:Анализ файла журнала Hadoop
- У меня есть много большого лог-файлы с различных серверов (журналы смокинга, журналы Websphere и IIS журналов)
- я хочу проанализировать эти большие файлы для создания в доклад, в котором говорится, что из Тукс, это много ошибок, из Websphere этого многие ошибки/предупреждения и т.д.
Поэтому мне нужна помощь в данный момент времени с моим ограниченным знанием Hadoop
- Большая часть карты уменьшает алгоритм. работает с файлами того же типа, не в моем случае, где файлы журналов из разных источников (Tux, Websphere, IIS и т. д.)
- Как мне создать функции map() и reduce() в этом случае
- Как сделать Я хранить отчеты о работе (для бывших: от Tux ошибки/предупреждения, от Websphere ошибка/предупреждение/информация) комбинации и т.д.
заранее спасибо