前端之家收集整理的这篇文章主要介绍了
shell – 从日志中排序唯一的URL,
前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。
我需要从Web日志中
获取唯一的URL,然后对它们进行排序.我正在考虑使用grep,uniq,sort命令并将其
输出到另一个
文件
我执行了这个命令:
cat access.log | awk '{print $7}' > url.txt
然后只得到唯一的一个并排序它们:
cat url.txt | uniq | sort > urls.txt
问题是我可以看到重复的,即使文件被排序,这意味着我的命令工作.为什么?
uniq |排序不起作用:uniq
删除连续的重复.
正确的方法是排序| uniq或更好的排序.
原文链接:https://www.f2er.com/bash/386707.html