У меня есть много файлов (acls), содержащих ips, macs, hostnames и другие данные.найти и удалить дублирующийся контент в нескольких файлах
Важно: Проблема заключается в «дублировании содержимого» в файлах. Нет «повторяющиеся строки»
Пример: (только файл, но я не имею несколько добавлений)
192.168.1.20;08:00:00:00:00:01;peter
192.168.1.21;08:00:00:00:00:01;android
192.168.1.21;08:00:00:00:00:02;john
192.168.1.22;08:00:00:00:00:03;julia
192.168.1.23;08:00:00:00:00:04;android
линии с дублированным контентом. И это то, чего я хочу. Команда, чтобы сказать мне этот результат:
192.168.1.20;08:00:00:00:00:01;peter
192.168.1.21;08:00:00:00:00:01;android
192.168.1.21;08:00:00:00:00:02;john
192.168.1.23;08:00:00:00:00:04;android
Дубликат содержание в линии выше 08: 00: 00: 00: 00: 01, 192.168.1.21 и андроид
Command Я использую для поиска дубликатов в папку Acls (не работает):
cat /home/user/files/* | sort | uniq -c | head -20
Я пытался с этим python script, но результаты не как ожидалось
Первый (по крайней мере) я хочу, чтобы обнаружить линии с DUPL и (если возможно) удалять строки с дублирующимся контентом.
Благодаря
Нет дублирующегося содержимого. Все строки различны – Anthon
Должно ли содержимое быть точно таким же или сравнивать только некоторые столбцы? Вы хотите изменить файлы на месте или получить уникальный список? Если строка появляется дважды, должна ли она отображаться только один раз или быть полностью удалена? –
@ gus27 или Unix & Linux (из-за 'bash') – Anthon