钱柜QG777
全部
All
当前位置: 首页 > 新闻资讯 > 什么是Robots协议
相关新闻
  • 互联网+医院——将传统医疗搬到线上

    2026-05-01 07:05

    自从中国社会经过20年的互联网发展后,我们一直希望可以把网络网站开发技术用到医疗领域,从而为中国人解决看病难,就医难的问题。而此次疫情,则将成为中国互联网医疗事业的新契机。那么,互联网医院

  • 网站设计中应注重整体设计感

    2026-04-29 14:38

    现在在做北京网站制作设计的时候,人们会关注到网站本身的一些实际需要和人们浏览北京网站制作时所需要的一些信息,在进行选择的时候也能够从一些更加专业的角度进行判断,整体的设计不仅仅表现在信息的表

  • 雄安新区发展带动互联网+传统产业

    2026-04-25 21:01

    中新社雄安4月28日电题:探访雄安毛绒玩具产业带:“互联网+”助力小玩具大产业。在雄安新区容城诞生了中国北方很大的毛绒玩具产业带。它从上世纪80年代起步,借助了电商平台异军突起,毛绒玩具产

  • 小程序开发上线审核时要注意哪些方面?

    2026-04-21 08:30

    小程序上线审核类似于上架苹果的APPstore,审核也是非常的严格,小程序的审核一般是1~3天左右,时间相对来说也不是太长。但是呢,微信小程序团队的审核是很严格的,稍微有不规范的地方,审核

  • 互联网浪潮中——新零售沦为平庸的开始

    2026-04-20 08:08

    新零互联网网站制作售行业的发展之所以会陷入平静,主要是因为以资本为主要驱动力的发展模式正在被新的发展模式取代所造成的。虽然从诞生的那一天开始,新零售就开始尽可能多地划清与电商等互联网网站制作

什么是Robots协议

返回列表
发布时间:2026-04-28 12:46
Robots协议的全称是“网络爬虫排除标准”(Robots Exclusion
Protocol),网站通过Robots协议让搜索引擎知道哪些页面能抓取,哪些页面不能抓取。


公司网站设计案例


robots.txt文件是一个文本文件,使用任何一个常见的文本编辑器,可以创建和编辑它。robots.txt是一个协议,而不是一个命令。robots.txt是搜索引擎中访问网站的时候要查看的个文件。robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。


当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。



Robots.txt文件主要是限制整个站点或者目录的搜索引擎访问情况,而Robots
Meta标签则主要是针对一个个具体的页面。和其他的META标签(如使用的语言、页面的描述、关键词等)一样,Robots
Meta标签也是放在页面中,专门用来告诉搜索引擎ROBOTS如何抓取该页的内容。


Robots
Meta标签中没有大小写之分,name=”Robots”表示所有的搜索引擎,可以针对某个具体搜索引擎写为name=”BaiduSpider”。content部分有四个指令选项:index、noindex、follow、nofollow,指令间以“,”分隔。


index指令告诉搜索机器人抓取该页面;


follow指令表示搜索机器人可以沿着该页面上的链接继续抓取下去;


Robots Meta标签的缺省值是index和follow,只有inktomi除外,对于它,缺省值是index、nofollow。



Robots协议用来告知搜索引擎哪些页面能被抓取,哪些页面不能被抓取;可以屏蔽一些网站中比较大的文件,如:音乐,视频等,节省服务器带宽;也可以屏蔽站点的一些死链接。方便搜索引擎抓取网站内容;设置网站地图连接,方便引导蜘蛛爬取页面。


Robots协议是网站出于安全和隐私考虑,防止搜索引擎抓取敏感信息而设置的。搜索引擎则会按照Robots协议给予的权限进行抓取。Robots协议代表了一种契约精神,互联网企业只有遵守这一规则,才能保证网站及用户的隐私数据不被侵犯。Robots协议是维护互联网世界隐私安全的重要规则,如果被破坏,其后果是不可想象的。