GoogleBot简析:抓取速率优化指南(技术向)

Linus
Linus
发布于 2024-08-19 / 148 阅读
2

GoogleBot简析:抓取速率优化指南(技术向)

GoogleBot是什么?

Google Bot的工作是在网络上发现网站、抓取和找到页面并将其添加到Google的索引中(出现在搜索页面)。但是网络空间非常大,Google Bot在抓取任何给定网站时只有有限的时间和资源,所以优化抓取速度很重要。

但从 Gary Illyes 近期的播客上说到,谷歌不会直接 follow 链接,而是先取链接,将它们收集到数据库中,然后再去逐个检查它们,如果有了解爬虫是什么的话,可以再去了解一下爬虫的工作机制,以及各种爬取比如深度、广度、权重爬取策略等。

为什么要关注抓取速率?抓取速率直接影响 Google 发现、索引和排名网站内容的速度

googlebot爬取页面的流程.png

怎么看爬取速率?

登录 Google Search Console 即可:

  1. 在左侧导航菜单中,找到并点击“设置”(Settings)

  2. 在“设置”页面上,找到“抓取统计信息”(Crawl Stats)并点击进入。

GSC打开抓取统计信息.png

怎么优化?

  • Robots.txt:这个看 robots 教程就好,不谈。

  • 利用 Sitemaps: 站点地图可以帮助 Googlebot 了解站点的结构和重要页面的优先级,但一定要注意,站点地图不能有重复、异常的页面。除此之外,Priority 也是很重要的,例如,将畅销产品或新上架产品的优先级设置为高,将库存较少或即将下架的产品优先级设置为低。 Shopify 对 sitemap 做了基础的分类,这也是一种方式:Shopify的sitemap.png

  • URL 参数URL参数是附加在网页地址(URL)后面的查询字符串,用于传递信息或指令给服务器。通常,URL参数以问号 ? 开始,参数之间用 & 分隔,比如/page?category=shoes&color=red。如果你用了大量的查询参数,又没有指定规范化标签,就会让谷歌不断爬取不同参数的 URL,从而造成资源浪费。同样的,如果你有大量的重复内容,也需要使用 canonical URL。

  • 避免无限爬取: 无限滚动的分页可能会导致Googlebot浪费资源在抓取不必要的页面上。这一点你可以看下谷歌的分页加载规范。当然,以上 2 点有很多人也来用作有意或者无意的蜘蛛陷阱(Spider trap)——一种会在网站上陷入无限循环或重复抓取的情况。

  • 监控抓取错误: 在抓取统计信息中,会显示当前的响应情况、信息,可以逐个点击进入查看。Googlebot爬取页面的状态.png

  • 服务器端因素:如果遇到了 DNS问题或服务器阻塞等问题,也会可能产生抓取问题,这是一个坑点,有时会导致网站所有者误以为问题出在Googlebot上,所以可以先判断服务器有没有问题、分析日志的错误,是否因为抓取速率或者服务器返回了错误。

  • If-Amendment-since 头: 这个 header 可以让 Googlebot 检查页面是否发生了更改,通过比较服务器返回的 Last-Modified 时间与 GoogleBot 本地缓存的页面时间,而无需再次下载整个内容,从而节省带宽和资源。

5 个谷歌爬虫抓取的认知误区

1.网站越大,Googlebot 就会抓取越多的页面。

Googlebot 的抓取是基于算法和优先级的,它会优先抓取重要、高质量、更新频繁的页面,而不是简单地根据网站大小来决定抓取量。

2.抓取越多,网站权重越高

普遍认为,谷歌机器人(Googlebot)越来越多的爬虫行为意味着网站质量越来越高。但这种假设具有误导性,仅仅因为 Googlebot 经常抓取网站并不一定意味着内容是好的。这也可能是由于其他因素,例如:

  • 被入侵的网站: 如果一个网站被入侵,Googlebot 可能会抓取它更频繁索引新的网址创建的挂马中毒页面、外部恶意链接或者无效页面。

  • 静态内容: 如果一个网站一段时间没有改变,Googlebot 可能会降低其爬行频率,但并不代表内容不行。

3.Googlebot 只抓取文本内容

Googlebot 有不同等级的爬虫,谷歌爬虫还可以抓取和理解图片、视频、JavaScript 等多种类型的内容。但这不代表你就可以随心所欲用客户端渲染之类的“现代化”前端操作,必要的 SEO 页面规范还是要遵循的,静态化永远第一。

4.增加网站内容就会自动提高 Googlebot 的抓取频率

虽然新内容可能会吸引 Googlebot 更频繁地访问网站,但抓取频率还受到其他因素的影响,如网站质量、更新频率、服务器性能等。另外,如果你的内容质量不佳(纯 AI、无个人见解),也会导致谷歌判定网站权重下降,从而导致抓取速率和频率下降。

5.可以通过人工方式强制 Googlebot 更频繁地抓取网站

有这种方法,但比较灰黑帽 SEO,一般不会用,因为对于网站有伤害。实际上,Googlebot 的抓取频率由算法决定,人工干预通常无效,甚至可能适得其反。还有种说法是,降低抓取频率可以提高排名,这也是错误的,新内容无法被及时索引是非常大的 SEO 问题。

FAQs

  • 要禁止 Googlebot 抓取一些网页?使用 robots.txt 文件,指引各种搜索引擎的爬虫遵循规范(虽然不一定会遵循)。

  • 不希望 Google 将某个或者某些网页编入索引?使用 noindex,禁止编入索引,并配合 GSC 的删除页面功能

  • 需要完全阻止抓取工具或用户访问某个网页?请使用其他方法,例如密码保护,但从 SEO 角度,请不要使用地区保护方式(比如只限制某个国家地区访问或 IP 屏蔽),以防 Googlebot 混淆。

  • 爬虫爬太快了,压力太大?Google 会自行确定最佳的网站抓取速度,如果你想要让抓取速度在短时间内减慢,则应向抓取请求返回 500、503 或 429 HTTP 响应状态代码(而非 200),如果实在不行,可以提交过度抓取报告来降低爬取速率。

  • Googlebot 会判断性能分数吗?不会,谷歌使用真实的 Chrome 使用数据来引入有关特定页面的核心网络生命周期的数据。其中包括 LCP、FID 和 CLS 分数。 Googlebot 抓取并不是 Google 获取此数据的来源,而是浏览器的实际访问行为。

其他相关信息

谷歌爬虫算是非常基础且老生常谈的话题,Google 官方文档和各类资料都很齐全,遇到问题就具体情况具体分析。