如何利用robots 文件增加蜘蛛抓取页面的数量

2021-01-15 09:57:56 金坛火蚁科技 2

对于百度搜索引擎来说,蜘蛛黑洞特指网站通过极低的成本制造出大量参数过多、内容类同但 URL 不同的动态 URL ,就像一个无限循环的“黑洞“,将 spider 困住。spider 浪费了大量资源抓取的却是无效网页。

如很多网站都有筛选功能,通过筛选功能产生的网页经常会被搜索引擎大量抓取,而这其中很大一部分是检索价值低质的页面。如“500-1000 之间价格的租房”,首先网站(包括现实中)上基本没有相关资源,其次站内用户和搜索引擎用户都没有这种检索习惯。这种网页被搜索引擎大量抓取,只能是占用网站宝贵的抓取配额,那么该如何避免这种情况呢?

以北京美团网为例,看看美团网是如何利用 robots 巧妙避免这种蜘蛛黑洞的:对于普通的筛选结果页,使用了静态链接,如:http://bj.meituan.com/category/zizhucan/weigongcun,同样是条件筛选结果页,当用户选择不同排序条件后,会生成带有不同参数的动态链接,而且即使是同一种排序条件(如:都是按销量降序排列),生成的参数也都是不同的。如:
http://bj.meituan.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqhekhttp://bj.me
ituan.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqi5c,对于美团网来说,只让搜索引擎抓取筛选结果页就可以了,而各种带参数的结果排序页面则通过 robots 规则拒绝提供给搜索引擎。

在 robots.txt 的文件用法中有这样一条规则:Disallow: /*?* ,即禁止搜索引擎访问网站中所有的动态页面。美团网恰是通过这种方式,对 spider 优先展示高质量页面、屏蔽了低质量页面,为 spider 提供了更友好的网站结构,避免了黑洞的形成。


 禁止百度图片搜索收录某些图片的方法

目前百度图片搜索也使用了与百度网页搜索相同的 spider,如果想禁止 Baiduspider 抓取网站上所有图片、禁止或允许 Baiduspider 抓取网站上的某种特定格式的图片文件可以通过设置 robots 实现:


 禁止百度收录图片的方法


企业建站(PC+手机,提供源码及整站优化技术支持),百度360搜狗首页排名(先上词后收费),百度爱采购、朋友圈广告、抖音头条信息流等渠道开户免开户费、运营费。另接公众号小程序制作,淘宝阿里巴巴店铺装修运营。

本文由常州-金坛-溧阳-镇江火蚁科技整理发布,如需转载,请注明来源:http://www.czihoee.cn

标签: 网站建设
电话咨询
服务项目
公司地图
QQ客服