当前位置:首页 > 运营术语 > Robots协议

Robots协议

5年前 (2020-10-26)运营术语

Robots的定义

Robots协议(也称为bai爬虫协议、机器du人协议等)的全称是“网zhi络爬虫排除标准”(Robots Exclusion Protocol)。Robots是站点与spider沟通的重要渠道,站点通过robots文件声明本网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。

robots.txt文件是一个文本文件,使用任何一个常见的文本编辑器,比如Windows系统自带的Notepad,就可以创建和编辑它 。robots.txt是一个协议,而不是一个命令。robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。

9月11日,百度搜索robots全新升级。升级后robots将优化对网站视频URL收录抓取情况。仅当您的网站包含不希望被视频搜索引擎收录的内容时,才需要使用robots.txt文件。如果您希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件。

如您的网站未设置robots协议,百度搜索对网站视频URL的收录将包含视频播放页URL,及页面中的视频文件、视频周边文本等信息,搜索对已收录的短视频资源将对用户呈现为视频极速体验页。此外,综艺影视类长视频,搜索引擎仅收录页面URL。

设置搜索robots协议的后果

针对短视频类内容,视频搜索将不再索引、展现网站的视频资源,历史已索引部分会从搜索中屏蔽。若设置部分目录不希望被收录 ,该目录下内容将从搜索中屏蔽,其余内容在搜索中则以正常结果展示。

robots.txt文件的格式

robots文件往往放置于根目录下,包含一条或更多的记录,这些记录通过空行分开(以CR,CR/NL,or NL作为结束符),每一条记录的格式如下所示:

 "<field>:<optional space><value><optionalspace>"

在该文件中可以使用#进行注解,具体使用方法和UNIX中的惯例一样。该文件中的记录通常以一行或多行User-agent开始,后面加上若干Disallow和Allow行,详细情况如下:

User-agent:该项的值用于描述搜索引擎robot的名字。在“robots.txt”文件中,如果有多条User-agent记录说明有多个robot会受到“robots.txt”的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则对任何robot均有效,在“robots.txt”文件中,“User-agent:*”这样的记录只能有一条。如果在“robots.txt”文件中,加入“User-agent:SomeBot”和若干Disallow、Allow行,那么名为“SomeBot”只受到“User-agent:SomeBot”后面的Disallow和Allow行的限制。

Disallow:该项的值用于描述不希望被访问的一组URL,这个值可以是一条完整的路径,也可以是路径的非空前缀,以Disallow项的值开头的URL不会被robot访问。例如“Disallow:/help”禁止robot访问/help.html、/helpabc.html、/help/index.html,而“Disallow:/help/”则允许robot访问/help.html、/helpabc.html,不能访问/help/index.html。“Disallow:”说明允许robot访问该网站的所有url,在“/robots.txt”文件中,至少要有一条Disallow记录。如果“/robots.txt”不存在或者为空文件,则对于所有的搜索引擎robot,该网站都是开放的。

Allow:该项的值用于描述希望被访问的一组URL,与Disallow项相似,这个值可以是一条完整的路径,也可以是路径的前缀,以Allow项的值开头的URL是允许robot访问的。例如“Allow:/hibaidu”允许robot访问/hibaidu.htm、/hibaiducom.html、/hibaidu/com.html。一个网站的所有URL默认是Allow的,所以Allow通常与Disallow搭配使用,实现允许访问一部分网页同时禁止访问其它所有URL的功能。

使用“*”and“$“:Baiduspider支持使用通配符“*”和“$”来模糊匹配url。
“*”匹配0或多个任意字符
“$”匹配行结束符。

最后需要说明的是:百度会严格遵守robots的相关协议,请注意区分您不想被抓取或收录的目录的大小写,百度会对robots中所写的文件和您不想被抓取和收录的目录做精确匹配,否则robots协议无法生效。

扫描二维码推送至手机访问。

版权声明:本文由汇运营发布,如需转载请注明出处。

本文链接:http://huiyunying.com/baike/119.html

分享给朋友:

“Robots协议” 的相关文章

CPA

CPA :(Cost Per Action)每行动成本CPA :(Cost Per Action)每行动成本,指投放按广告实际效果,即按回应的有效问卷或定单来计费,而不限广告投放量。...

SaaS

SaaS,是Software-as-a-Service的缩写名称,意思为软件即服务,即通过网络提供软件服务。SaaS 应用软件有免费、付费和增值三种模式。付费通常为“全包”费用,囊括了通常的应用软件许可证费、软件维护费以及技术支持费,将其统一为每个用户的月度租用费。...

生态运营

生态运营是指生产性企业以市场需求为导向,以科技进步为前提,以资源综合利用、降低消耗、减少污染为立足点,以企业效益、社会效益、生态效益为目标,在发展企业主导产品的基础上,开发关联性产品,培育相互依存、相互补充、相互促进的经营共生体,实现以尽可能少的投入,获得尽可能多的产出的经营管理方法。...

产品目标

产品目标是指产品实现的价值,即使有用户场景存在,但做出来的产品没有价值(如产品既不能盈利,用户量又极少),那也没有存在必要。产品目标是企业企业化一定时间内的产品定位。一般包括:产品研发目标、核心产品毛利、核心产品销售额、核心产品市场占有率及增长率等五项内容。产品目标可以是定性,也可以是定量的,可包括...

淘宝运营之最有效的淘宝推广方法大解析

淘宝运营之最有效的淘宝推广方法大解析

目前很多卖家都有一个问题,那就是订单太少。而解决这个问题的最直接的,也最容易想到的方式就是推广,因为在转化一定的情况下,流量越多,那么订单就会越高。笔者就根据这几年做网络营销的经验来总结一下,淘宝站内及站外一些效果比较不错的推广方式。淘宝站内流量渠道:自然搜索排名、直通车、淘宝客、淘宝活动、钻石展位...