robot.txt是干嘛的,robot.txt的规范写法是怎样?s
导读:seo动态seo动态 大家好,今天小编要给大家分享的是robot.txt是干嘛的,robot.txt的规范写法是怎样?,对于这个,启明seo非常认可,所以做个分享,希望能够对大家有网站推广优化seo网站建设制作。
大家好,今天小编要给大家分享的是robot.txt是干嘛的,robot.txt的规范写法是怎样?,对于这个,SEOUCseo非常认可,所以做个分享,希望能够对大家有所帮助。
作为一名站长,检查网站日志是非常有必要的工作,通过日志我们可以知道蜘蛛抓取了哪些页面,通常我们会发现搜索引擎喜欢抓取动态的链接,那么我们可以通过robot.txt去屏蔽掉,不让它抓取,从而提升蜘蛛抓取效率,那么robot.txt是干嘛的,robot.txt的规范写法又是怎样呢?
robot.txt是干嘛的?
robots协议也叫robots.txt(统一小写)是一企业网站建设种存放于网站根目录下的ASCII编码的文本文件,它通常告诉网络搜索引擎的漫游器(又称网络蜘蛛),此网站中的哪些内容是不应被搜索引擎的漫游器获取的,哪些是可以被漫游器获取的。因为一些系统中的URL是大小写敏感的,所以robots.txt的文件名应统一为小写。robots.txt应放置于网站的根目录下。如果想单独定义搜索引擎的漫游器访问子目录时的行为,那么可以将自定的设置合并到根目录下的robots.txt,或者使用robots元数据(Metadata,又称元数据)。
简单来说说,网站的根目录需要放置一个txt文件,这个文件以robots命名,它是告诉搜索引擎我们网站上哪些页面可以抓取,哪些页面禁止抓取,从而提高搜索引擎的判断能力,同时搜索引擎也会遵循这一协议,双方各取所需。
robot.txt原则:
Robots协议是国际互联网界通行的道德规范,基于以下原则建立:
1、搜索技术应服务于人类,同时尊重信息提供者的意愿,并维护其隐私权;
2、网站有义务保护其使用者的个人信息和隐私不被侵犯。
robot.txt的规范写法:
例1. 禁止所有搜索引擎访问网站的任何部分
User-agent: *
Disallow: /
禁止所有搜索引擎显然不符合我们的目的,一般在网站上线前可以禁止抓取,这样做是不让搜索引擎蜘蛛来抓取的时候网站是空的,而正常情况下我们只需要屏蔽掉一些不好的链接,比如动态链接,图片目录等就好。
例如:
User-agent: *
Disallow: /plus/ad_js.php
Disallow: /plus/advancedsearch.php
Disallow: /plus/car.php
声明: 本文由我的SEOUC技术文章主页发布于:2023-06-22 ,文章robot.txt是干嘛的,robot.txt的规范写法是怎样?s主要讲述是怎样,写法,seo动态网站建设源码以及服务器配置搭建相关技术文章。转载请保留链接: https://www.seouc.com/article/seo_17119.html
- 上一篇:SEO优化方法seo实战
- 下一篇:SEO应用场景介绍及成功案例分析SEO基础