导读:建站技术建站技术最近看群里很多人在用wordpress蜘蛛爬行记录生成这个功能,出于对网站优化的研究,清楚的了解蜘蛛爬行规律也是很重要的,我们就可以知道蜘蛛的爬行规律,根据这个网站搭建教程国外技术网站。
最近看群里很多人在用wordpress蜘蛛爬行记录生成这个功能,出于对网站优化的研究,清楚的了解蜘蛛爬行规律也是很重要的,我们就可以知道蜘蛛的爬行规律,根据这个规律我们再来写文章,这样符合了蜘蛛的胃口是很利于优化的。。。但是小编一直提倡着远离插件dede模板堂,热爱速度的口号,所以今天就教大家用代码完美实现wordpress蜘蛛爬行记录生成功能!
在wordpress主题文件目录下找到function文件,用代码编辑软件打开,在<?php ?>内的任意位置增加下面一段代码即可完成wordpress蜘蛛爬行记录生成的功能!
function get_naps_bot(){
$useragent = strtolower($_SERVER['HTTP_USER_AGENT']);dede后台模板
if (strpos($userag织梦模板ent, 'googlebot') !== false){
return 'Googlebot';
}
if (strpos($useragent, 'msnbot') !== false){
return 'MSNbot';
}
if (strpos($useragent, 'slurp') !== false){
return 'Yahoobot';
}
if (strpos($useragent, 'baiduspider') !== false){
return 'Baiduspider';
}
if (strpos($useragent, 'sohu-search') !== false){
return 'Sohubot';
}
if (strpos($useragent, 'lycos') !== false){
return 'Lycos';
}
if (strpos($useragent, 'robozilla') !== false){
return 'Robozilla';
}
return false;
}
function nowtime(){
date_default_timezone_set('Asia/Shanghai');
$date=date("Y-m-d.G:i:s");
return $date;
}
$searchbot = get_naps_bot();
if ($searchbot) {
$tlc_thispage = addslashes($_SERVER['HTTP_USER_AGENT']);
$url=$_SERVER['HTTP_REFERER'];
$file="robotslogs.txt";
$time=nowtime();
$data=fopen($file,"a");
$PR="$_SERVER[REQUEST_URI]";
fwrite($data,"Time:$time robot:$searchbot URL:$tlc_thispage\n page:$PR\r\n");
fclose($data);
}
使用上面这段代码后,最好在网站的根目录创建个robotslogs.txt的文件,并且linux主机设置权限为777,然后过段时间,访问http://网址/robotslogs.txt 即可看到蜘蛛爬行记录了!
一些说使用后出错的朋友,请研究下function文件内,插入的位置!
关键词标签: 建站 蜘蛛 插件
声明: 本文由我的SEOUC技术文章主页发布于:2023-07-23 ,文章用代码完美实现wordpress蜘蛛爬行记录生成,远离主要讲述蜘蛛,插件,建站网站建设源码以及服务器配置搭建相关技术文章。转载请保留链接: https://www.seouc.com/article/web_34904.html