商务服务
搜索引擎蜘蛛抓取份额是什么?抓取份额是由什么决定的?
2024-12-26 05:04

一月份时,google新的seo代言人gary illyes在google官方博客上发了一篇帖子:what crawl budget means for googlebot,讨论了搜索引擎蜘蛛抓取份额相关问题。对大中型网站来说,这是个颇为重要的seo问题,有时候会成为网站自然流量的瓶颈。

搜索引擎蜘蛛抓取份额是什么?抓取份额是由什么决定的?

今天的帖子总结一下gary illyes帖子里的以及后续跟进的很多博客、论坛帖子的主要内容,以及我自己的一些案例和理解。

强调一下,以下这些概念对百度同样适用。

什么是搜索引擎蜘蛛抓取份额?

顾名思义,抓取份额是搜索引擎蜘蛛花在一个网站上的抓取页面的总的时间上限。对于特定网站,搜索引擎蜘蛛花在这个网站上的总时间是相对固定的,不会无限制地抓取网站所有页面。

抓取份额的英文google用的是crawl budget,直译是爬行预算,我觉得不太能说明是什么意思,所以用抓取份额表达这个概念。

抓取份额是由什么决定的呢?这牵扯到抓取需求和抓取速度限制。

抓取需求

抓取需求,crawl demand,指的是搜索引擎“想”抓取特定网站多少页面。

决定抓取需求的主要有两个因素。一是页面权重,网站上有多少页面达到了基本页面权重,搜索引擎就想抓取多少页面。二是索引库里页面是否太久没更新了。说到底还是页面权重,权重高的页面就不会太久不更新。

页面权重和网站权重又是息息相关的,提高网站权重,就能使搜索引擎愿意多抓取页面。

抓取速度限制

搜索引擎蜘蛛不会为了抓取更多页面,把人家网站服务器拖垮,所以对某个网站都会设定一个抓取速度的上限,crawl rate limit,也就是服务器能承受的上限,在这个速度限制内,蜘蛛抓取不会拖慢服务器、影响用户访问。

服务器反应速度够快,这个速度限制就上调一点,抓取加快,服务器反应速度下降,速度限制跟着下降,抓取减慢,甚至停止抓取。

所以,抓取速度限制是搜索引擎“能”抓取的页面数。

抓取份额是由什么决定的?

抓取份额是考虑抓取需求和抓取速度限制两者之后的结果,也就是搜索引擎“想”抓,同时又“能”抓的页面数。

网站权重高,页面内容质量高,页面够多,服务器速度够快,抓取份额就大。

小网站没必要担心抓取份额

小网站页面数少,即使网站权重再低,服务器再慢,每天搜索引擎蜘蛛抓取的再少,通常至少也能抓个几百页,十几天怎么也全站抓取一遍了,所以几千个页面的网站根本不用担心抓取份额的事。数万个页面的网站一般也不是什么大事。每天几百个访问要是能拖慢服务器,seo就不是主要需要考虑的事了。

大中型网站可能需要考虑抓取份额

几十万页以上的大中型网站,可能要考虑抓取份额够不够的问题。

抓取份额不够,比如网站有 1 千万页面,搜索引擎每天只能抓几万个页面,那么把网站抓一遍可能需要几个月,甚至一年,也可能意味着一些重要页面没办法被抓取,所以也就没排名,或者重要页面不能及时被更新。

要想网站页面被及时、充分抓取,首先要保证服务器够快,页面够小。如果网站有海量高质量数据,抓取份额将受限于抓取速度,提高页面速度直接提高抓取速度限制,因而提高抓取份额。

百度站长平台和google search console都有抓取数据。如下图某网站百度抓取频次:

上图是seo每天一贴这种级别的小网站,页面抓取频次和抓取时间(取决于服务器速度和页面大小)没有什么大关系,说明没有用完抓取份额,不用担心。

有的时候,抓取频次和抓取时间是有某种对应关系的,如下图另一个大些的网站:

可以看到,抓取时间改善(减小页面尺寸、提高服务器速度、优化数据库),明显导致抓取频次上升,使更多页面被抓取收录,遍历一遍网站更快速。

google search console里更大点站的例子:

最上面的是抓取页面数,中间的是抓取数据量,除非服务器出错,这两个应该是对应的。最下面的是页面抓取时间。可以看到,页面下载速度够快,每天抓取上百万页是没有问题的。

当然,像前面说的,能抓上百万页是一方面,搜索引擎想不想抓是另一方面。

大型网站另一个经常需要考虑抓取份额的原因是,不要把有限的抓取份额浪费在无意义的页面抓取上,导致应该被抓取的重要页面却没有机会被抓取。

浪费抓取份额的典型页面有:

大量过滤筛选页面。这一点,几年前关于无效url爬行索引的帖子里有详细讨论。站内复制内容低质、垃圾内容日历之类的无限个页面

上面这些页面被大量抓取,可能用完抓取份额,该抓的页面却没抓。

怎样节省抓取份额?

当然首先是降低页面文件大小,提高服务器速度,优化数据库,降低抓取时间。

然后,尽量避免上面列出的浪费抓取份额的东西。有的是内容质量问题,有的是网站结构问题,如果是结构问题,最简单的办法是robots文件禁止抓取,但多少会浪费些页面权重,因为权重只进不出。

某些情况下使用链接nofollow属性可以节省抓取份额。小网站,由于抓取份额用不完,加nofollow是没有意义的。大网站,nofollow是可以在一定程度上控制权重流动和分配的,精心设计的nofollow会使无意义页面权重降低,提升重要页面权重。搜索引擎抓取时会使用一个url抓取列表,里面待抓url是按页面权重排序的,重要页面权重提升,会先被抓取,无意义页面权重可能低到搜索引擎不想抓取。

最后几个说明:

    以上就是本篇文章【搜索引擎蜘蛛抓取份额是什么?抓取份额是由什么决定的?】的全部内容了,欢迎阅览 ! 文章地址:http://fabua.ksxb.net/news/4681.html 
     文章      相关文章      动态      同类文章      热门文章      栏目首页      网站地图      返回首页 海之东岸资讯移动站 http://fabua.ksxb.net/mobile/ , 查看更多   
最新文章
【受权发布】北京8月8日21时解除积水内涝蓝色预警
千龙网北京8月8日讯据北京市突发事件预警信息发布中心最新消息,北京市水务局与市气象局于2025年8月8日21时00分解除积水内涝蓝色
两市融资余额增加113.21亿元
【两市融资余额增加113.21亿元】截至8月4日,上交所融资余额报10050.89亿元,较前一交易日增加64.16亿元;深交所融资余额报9662.
山阳县图书馆2025年暑期少儿电影大放送活动上线啦
亲爱的家长和小朋友们:8月5日至7日,山阳县图书馆为孩子们精心准备了暑期少儿电影大放送活动!我们精选了三部寓教于乐、精彩纷
活力机关丨在新时代文明实践中心过“七彩的夏日”,也太好玩了吧!
暑假来临滨湖区新时代文明实践中心更热闹啦!由区委区级机关工委与区委宣传部、区文明办联合举办的“七彩的夏日”暑期快乐实践营
怎么抓住那些成就人生的灵感时刻?
发明家——雷·库兹韦尔(Ray Kurzweil)他曾发明了首个光学字符识别软件、首台针对盲人的文字转语音识别机器、首台平板图像扫描
全球连线|青海玉树:多渠道经贸往来构建中尼友好交流桥梁
青海省玉树藏族自治州地处青藏高原,历史上便是唐蕃古道的重要枢纽。近年来,玉树和尼泊尔多地在商贸、文化、旅游、体育等领域的
清末宁海州知州吴延祚,对牟平新式教育发展做出贡献
本文要介绍的是一位胶东历史人物,他的名字叫做吴延祚,生活在晚清时期,籍贯为江苏阳湖县(注:旧县名,属常州府,清代中前期析
降价800背刺首发用户,如何看待华为Pura 80 Pro系列价格大跳水?
国产影像旗舰上市一个月,官方就降了800块。这件事情我很难想象是发生在华为的身上,说好的越高端越保值呢?突降800元,首发用户
云南:铜都新律——“工业锈带”变身“文化秀带”
汽车驶离穿山越谷的高速公路,从山头而下,连续转过多个弯后,到达绿汁江畔。这时,一座仿佛被时光封存的小镇迎面而来——大片的
刚刚!中国首届,沈阳开幕!
8月10日上午,中华人民共和国第一届青少年田径运动会开幕式在沈阳奥体中心体育场举行。从今天开始,在6个比赛日中,来自全国各地