Я делаю сбор данных по массивным файлам журнала, и мне нужно подсчитывать вхождения уникальных строк. Как правило, так это делается с помощью команды:Подсчет вхождений уникальных строк в bash без предварительной сортировки данных
zcat <file> | grep -o <filter> | sort | uniq -c | sort -n
Что я ищу сделать это не платить штраф производительность сортировки после Grep. Можно ли это сделать, не покидая bash?
Часть мотивации при использовании не сортировки - это также дисковое пространство. У этих хостов очень мало его на не-журнальном диске (который доступен только для чтения). Сортировка удаляет его для больших запросов, поскольку он кэширует его список на диске. Тем не менее, я буду сравнивать результаты. – ralar