У меня есть приложение для искрообразования, и я хочу проанализировать журналы работы с помощью Elasticsearch-Kibana. Моя работа выполняется на кластере пряжи, поэтому журналы записываются в HDFS, поскольку я установил yarn.log-aggregation-enable
в true. Но, когда я пытаюсь сделать это:Apache Spark: Анализ нитей Анализ
hadoop fs -cat ${yarn.nodemanager.remote-app-log-dir}/${user.name}/logs/<application ID>
Я вижу некоторые шифрованные/сжатые данные. Какой формат файла? Как читать журналы из этого файла? Могу ли я использовать logstash, чтобы прочитать это?
Кроме того, если есть лучший подход к анализу журналов Spark, я открыт для ваших предложений.
Спасибо.
Может вам попробовать использовать -text вместо -cat? hadoop fs -text ... – facha
Пробовал это. Все тот же результат. – void
Просто хочу знать, есть ли какой-либо API для преобразования этого типа файла в текстовый файл. – void