Мне нужно получить уникальные URL-адреса из веб-журнала, а затем отсортировать их. Я думал об использовании команды grep, uniq, sort и выводе этого в другой файл.
Я выполнил эту команду:
cat access.log | awk '{print $7}' > url.txt
тогда только получите уникальный и отсортируйте их:
cat url.txt | uniq | sort > urls.txt
Проблема в том, что я вижу дубликаты, хотя файл отсортирован, что означает, что моя команда сработала. Почему?