实现WordPress博客蜘蛛爬行记录统计教程
使用WordPress蜘蛛记录来生成这个功能。在对网站优化的研究中,清楚地了解蜘蛛的爬行规律也非常重要,这样才能了解蜘蛛的爬行规律。按照这个规则,我们会重新写文章,这符合蜘蛛的胃口,非常有利于优化。今天分享一下实现WordPress博客蜘蛛爬行记录统计教程。
将下方代码放入function.php文件
function get_naps_bot(){
$useragent = strtolower($_SERVER[‘HTTP_USER_AGENT’]);
if (strpos($useragent, ‘googlebot’) !== false){
return ‘Googlebot’;
}
if (strpos($useragent, ‘msnbot’) !== false){
return ‘MSNbot’;
}
if (strpos($useragent, ‘slurp’) !== false){
return ‘Yahoobot’;
}
if (strpos($useragent, ‘baiduspider’) !== false){
return ‘Baiduspider’;
}
if (strpos($useragent, ‘sohu-search’) !== false){
return ‘Sohubot’;
}
if (strpos($useragent, ‘lycos’) !== false){
return ‘Lycos’;
}
if (strpos($useragent, ‘robozilla’) !== false){
return ‘Robozilla’;
}
return false;
}
function nowtime(){
date_default_timezone_set(‘Asia/Shanghai’);
$date=date(“Y-m-d.G:i:s”);
return $date;
}
$searchbot = get_naps_bot();
if ($searchbot) {
$tlc_thispage = addslashes($_SERVER[‘HTTP_USER_AGENT’]);
$url=$_SERVER[‘HTTP_REFERER’];
$file=”robotslogs.txt”;
$time=nowtime();
$data=fopen($file,”a”);
$PR=”$_SERVER[REQUEST_URI]”;
fwrite($data,”Time:$time robot:$searchbot URL:$tlc_thispagen page:$PRrn”);
fclose($data);
}
然后在网站根目录创建 robotslogs.txt 并且给他777权限,查看统计的方式就是这样 https://域名/robotslogs.txt
2. 分享目的仅供大家学习和交流,请不要用于商业用途!
3. 如果你也有好源码或者教程,可以到用户中心发布投稿,分享有金币奖励和额外收入!
4. 本站提供的源码、模板、插件等等其他资源,都不包含技术服务 请大家谅解!
5. 如有链接无法下载、失效或广告,请联系站长,可领回失去的金币,并额外有奖!
6. 如遇到加密压缩包,默认解压密码为"www.zyfx8.cn",如遇到无法解压的请联系管理员!
本站部分文章、资源来自互联网,版权归原作者及网站所有,如果侵犯了您的权利,请及时联系我站删除。免责声明
资源分享吧 » 实现WordPress博客蜘蛛爬行记录统计教程
常见问题FAQ
- 免费下载或者VIP会员专享资源能否直接商用?
- 本站所有资源版权均属于原作者所有,这里所提供资源均只能用于参考学习用,请勿直接商用。若由于商用引起版权纠纷,一切责任均由使用者承担。更多说明请参考 VIP介绍。
- 织梦模板使用说明
- 你下载的织梦模板并不包括DedeCMS使用授权,根据DedeCMS授权协议,除个人非盈利站点外,均需购买DedeCMS商业使用授权。购买地址: http://www.desdev.cn/service-dedecms.html