普通用户与搜索引擎蜘蛛爬行的区别在于发送的user agent,
看网站日志文件能发现百度蜘蛛名字包含Baiduspider,而google的则是Googlebot,这样我们可以通过判断发送的user agent来决定要不要取消普通用户的访问,编写函数如下:
<div class="codetitle"><a style="CURSOR: pointer" data="98389" class="copybut" id="copybut98389" onclick="doCopy('code98389')"> 代码如下: