WordPress设置最佳的Robots.txt规则,seo建站技术
导读:seo建站技术seo建站技术一些文章在搜索引擎结果中出现了重复而没有意义的链接,如果你也是使用的WordPress,不妨你也看看你自己的robots.txt文件。 如果你的WordPres职业技术学校网站。
一些文章在搜索引擎结果中出织梦模板现了重复而没有意义的链接,如果你也是使用的WordPress,不妨你也看看你自己的robots.txt文件。
如果你的WordPress站点还没有robots.txt文件,那么子凡觉得你就更有必要添加一个了,即使你的站点可以让搜索引擎随意抓取,因为搜索引擎机器人访问网站时,首先会寻找站点根目录有没有 robots.txt文件,如果有这个文件就根据文件的内容确定收录范围,如果没有就按默认访问以及收录所有页面。另外,当搜索蜘蛛发现不存在robots.txt文件时,会产生一个404错误日志在服务器上,从而增加服务器的负担,因此为站点添加一个robots.txt文件还是很重要的。
好了,还是来分享一个经过本站整理的比较完善的适用于WordPress的robots.txt文件内容吧!
User-agent: * Disallow: /wp-admin/ Disallow: /wp-content/ Disallow: /wp-includes/ Disallow: /trackback/ Disallow: /comments/ Disallow: /attachment/ Disallow: /comments/feed Disallow: /feed Disallow: /*/feed Disallow: /*/comment-page-* Disallow: /*?replytocom=* Disallow: /*/trackback Disallow: /?s=* Disallow: /*/?s=* Disallow: /wp-*.phpdede模板安装 Sitemap: https://www.mbxzb.com/sitemap.HTML使用方法:新建一个名称为robots.txt文本文件,将以上的内容放进去,然后上传到网站根目录即可。
最后还是简单的解析一下其对应作用
1、User-agent: *
允许所有搜索引擎抓取网站,除非你网站有特别针对某个或多个搜索引擎,你可以适当的设置其抓取。如下只允许百度和谷歌抓取:
User-agent: Baidusdede后台模板pider Disallow: / User-agent: Googlebot Disallow: /这样设置的意思为只允许百度和谷歌的蜘蛛抓取所有,大家可以举一反三的使用。
2、Disallow: /wp-admin/、Disallow: /wp-content/和Disallow: /wp-includes/ 用于告诉搜索引擎不要抓取后台程序文件页面。
3、Disallow: /*/comment-page-*和Disallow: /*?replytocom=* 禁止搜索引擎抓取评论分页等相关链接。
4、Disallow: /category/*/page/和Disallow: /tag/*/page/ 禁止搜索引擎抓取收录分类和标签的分页。(这一条子凡并未添加到上面演示,因为不同WordPress站点可能会有所不同,大家可以根据需要添加)
声明: 本文由我的SEOUC技术文章主页发布于:2023-07-23 ,文章WordPress设置最佳的Robots.txt规则,seo建站技术主要讲述规则,WordPress,建站网站建设源码以及服务器配置搭建相关技术文章。转载请保留链接: https://www.seouc.com/article/web_35365.html