最新活动:电脑PC端+手机端+微网站+自适应网页多模板选择-建站388元起价!!!
当前位置:主页 > SEO优化 > robot.txt是干嘛的,robot.txt的规范写法是怎样?s

robot.txt是干嘛的,robot.txt的规范写法是怎样?s

时间:2023-06-22 12:06:22 阅读: 文章分类: SEO优化 作者: SEO专员

导读:seo动态seo动态 大家好,今天小编要给大家分享的是robot.txt是干嘛的,robot.txt的规范写法是怎样?,对于这个,启明seo非常认可,所以做个分享,希望能够对大家有网站推广优化seo网站建设制作。

网站推广优化seo网站建设制作

大家好,今天小编要给大家分享的是robot.txt是干嘛的,robot.txt的规范写法是怎样?,对于这个,SEOUCseo非常认可,所以做个分享,希望能够对大家有所帮助。

作为一名站长,检查网站日志是非常有必要的工作,通过日志我们可以知道蜘蛛抓取了哪些页面,通常我们会发现搜索引擎喜欢抓取动态的链接,那么我们可以通过robot.txt去屏蔽掉,不让它抓取,从而提升蜘蛛抓取效率,那么robot.txt是干嘛的,robot.txt的规范写法又是怎样呢?

 

robot.txt是干嘛的?

 

robots协议也叫robots.txt(统一小写)是一企业网站建设种存放于网站根目录下的ASCII编码的文本文件,它通常告诉网络搜索引擎的漫游器(又称网络蜘蛛),此网站中的哪些内容是不应被搜索引擎的漫游器获取的,哪些是可以被漫游器获取的。因为一些系统中的URL是大小写敏感的,所以robots.txt的文件名应统一为小写。robots.txt应放置于网站的根目录下。如果想单独定义搜索引擎的漫游器访问子目录时的行为,那么可以将自定的设置合并到根目录下的robots.txt,或者使用robots元数据(Metadata,又称元数据)。

 

简单来说说,网站的根目录需要放置一个txt文件,这个文件以robots命名,它是告诉搜索引擎我们网站上哪些页面可以抓取,哪些页面禁止抓取,从而提高搜索引擎的判断能力,同时搜索引擎也会遵循这一协议,双方各取所需。

robot.txt是干嘛的,robot.txt的规范写法是怎样?

robot.txt原则:

 

Robots协议是国际互联网界通行的道德规范,基于以下原则建立:

 

1、搜索技术应服务于人类,同时尊重信息提供者的意愿,并维护其隐私权;

 

2、网站有义务保护其使用者的个人信息和隐私不被侵犯。

 

robot.txt的规范写法:

 

例1. 禁止所有搜索引擎访问网站的任何部分

 

User-agent: *

 

Disallow: /

 

禁止所有搜索引擎显然不符合我们的目的,一般在网站上线前可以禁止抓取,这样做是不让搜索引擎蜘蛛来抓取的时候网站是空的,而正常情况下我们只需要屏蔽掉一些不好的链接,比如动态链接,图片目录等就好。

 

例如:

 

User-agent: *

 

Disallow: /plus/ad_js.php

 

Disallow: /plus/advancedsearch.php

 

Disallow: /plus/car.php

 

关键词标签: 写法 是怎样 seo动态

声明: 本文由我的SEOUC技术文章主页发布于:2023-06-22 ,文章robot.txt是干嘛的,robot.txt的规范写法是怎样?s主要讲述是怎样,写法,seo动态网站建设源码以及服务器配置搭建相关技术文章。转载请保留链接: https://www.seouc.com/article/seo_17119.html

我的IDC 网站建设技术SEOUC.COM
专注网站建设,SEO优化,小程序设计制作搭建开发定制网站等,数千家网站定制开发案例,网站推广技术服务。
  • 5000+合作客服
  • 8年从业经验
  • 150+覆盖行业
  • 最新热门源码技术文章