网页抓取工具 – 如何设置一个仅允许站点默认页面的robot.txt

前端之家收集整理的这篇文章主要介绍了网页抓取工具 – 如何设置一个仅允许站点默认页面的robot.txt前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。
说我有一个网站在 http://example.com.我真的希望允许机器人看到主页,但任何其他页面需要阻止,因为它是无意义的蜘蛛。换一种说法

http://example.com&应该允许http://example.com/,但是
http://example.com/anythinghttp://example.com/someendpoint.aspx应该被阻止。

此外,如果我允许某些查询字符串传递到主页,那将是很好的
http://example.com?okparam=true

但不是
http://example.com?anythingbutokparam=true

解决方法

所以经过一些研究,这里是我发现的 – 主要搜索提供商可以接受的解决方案: googleyahoo& msn(我可以在这里找到一个验证器):
User-Agent: *
Disallow: /*
Allow: /?okparam=
Allow: /$

诀窍是使用$来标记URL的结尾。

原文链接:https://www.f2er.com/html/233674.html

猜你在找的HTML相关文章