前端之家收集整理的这篇文章主要介绍了
在不下载网页的情况下使用Python检查链接是否已死,
前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。
对于那些知道wget的人来说,它有一个选项–spider,允许人们检查
链接是否坏了,而不实际下载网页.我想在
Python中做同样的事情.我的问题是我有一个我要检查的100’000个
链接列表,每天最多一次,每周至少一次.无论如何,这将产生大量不必要的流量.
据我所知,从urllib2.urlopen()
documentation开始,它不下载页面而只下载元信息.它是否正确?或者是否有其他方式以一种很好的方式做到这一点?
最好,
特勒尔斯
原文链接:https://www.f2er.com/html/242497.html