Linus
Linus

原文发布于

2026年02月26日

/

最新更新于

2026年02月26日

/

阅读

3
0

Information Gain — 信息增益

一篇内容相对于用户已读内容所提供的净新增信息量,是 Google 衡量内容价值的核心评判维度。

关键数据点:2025 年 12 月核心更新后,缺乏独家数据的内容农场平均流量下降 37.6%,而具备原创研究的网站排名提升 43.4%。(来源:Backlinko / B2B SaaS 300 站研究)

2026 趋势信号:AI 生成内容洪流下,Google 正从 "谁的内容最全面" 转向 "谁的内容最不可替代"——信息增益从加分项变成了生存门槛。

谁需要关注:SEO 负责人 / 内容策略总监 / 编辑团队 / CMO

这个概念从哪来

故事要从 1948 年讲起。Claude Shannon 在贝尔实验室写下了那篇改变世界的论文《A Mathematical Theory of Communication》,第一次用数学语言定义了 "信息":一条消息的价值,等于它消除了多少不确定性。如果你已经知道明天会下雨,那 "明天下雨" 这条消息的信息量就是零。

这个思想在机器学习领域变成了决策树的核心算法——每次分裂选择信息增益最大的特征。但它跟 SEO 有什么关系?关系在 2020 年被 Google 自己建立了。

2020 年 11 月,Google 公开了一份编号为 US20200349181A1 的专利,标题是《Contextual Estimation of Link Information Gain》。这份专利的核心主张非常直白:给用户看的下一篇文档,应该根据它相对于用户已经看过的文档所提供的 "增量信息" 来排序。不是绝对质量,而是相对增益

从 Shannon 的信息论到 Google 的排序专利,中间跨了 72 年。但底层逻辑一脉相承:信息的价值不在于它本身多 "正确",而在于它在特定语境下消除了多少未知。到了 2026 年,这个逻辑因为一件事被彻底激活——AI 生成内容的爆发。当互联网上 90% 的内容都在说同一件事,"增益" 就成了区分人类创作与机器填充的最硬指标。

它到底怎么运作

Google 专利 US20200349181A1 描述的技术流程,可以拆成三步来理解:

第一步:建立 "已知集"。 系统追踪用户已经接触过的文档——可能是搜索结果页点击过的链接,也可能是浏览器历史、AI 助手此前提供的回答。这些构成了 "第一组文档",代表用户当前的认知基线。

第二步:计算增益分。 对于候选的 "第二组文档"(即还没展示给用户的内容),系统通过训练好的机器学习模型,将已读文档和待读文档的数据作为输入,输出一个 "信息增益分数"。这个分数反映的是:新文档中有多少信息是已读文档里不存在的。

第三步:重新排序。 候选文档按增益分数重新排列。得分最高的——也就是对当前用户而言 "最不冗余" 的内容——优先展示。

虽然 Google 从未公开确认实际部署了这项技术,但从 2024 年以来的多次核心更新效果来看,信号已经非常清晰:单纯重复已有信息的 "Skyscraper" 式内容正在被系统性降权,而包含原创数据、独特视角、一手经验的页面获得了明显的排名提升。

Animalz 的分析更进一步指出:在 AI 搜索的语境下,信息增益从可选变成了必选。当 Google AI Overviews 或 Perplexity 已经综合了十篇文章给出了一个 "共识答案",你的内容如果只是这个共识的第 11 个版本,就连被引用的机会都没有。AI 系统需要的是 "共识之外" 的东西——新数据、反例、边缘案例、实操细节。

翼果观察(2026 年 2 月):"增益优先" 编辑工作流

我们在翼果内部推行了一套 "写作前先问 LLM" 的内容生产流程,实测后发现它能显著提升内容的信息增益。具体步骤如下:

  1. 共识扫描:动笔前,把你要写的主题作为 prompt 分别输入 ChatGPT、Claude、Perplexity,记录它们的回答。这三份回答的交集,就是当前互联网上关于这个主题的 "大众共识"。
  2. 增益点标记:逐条对照共识内容,问自己:"我有什么是它们没提到的?" 可能是自己做过的实验数据、客户案例、行业内幕、反直觉的观察。把这些点单独列出来。
  3. 结构反转:不要把增益点埋在文章末尾当 "彩蛋"。将你的独家洞察放在文章的前 1/3——这是 AI 提取摘要和引用片段时最优先扫描的区域。
  4. 冗余剔除:共识内容只保留必要的背景铺垫(通常 2-3 句即可),剩余篇幅全部让给增益内容。如果一段话删掉后文章核心观点不受影响,就删。
  5. 发布后验证:文章发布一周后,再用同样的 prompt 问 LLM,看你的内容是否被纳入了新的 "共识"。如果是,说明增益成功。

这套流程的核心原则:LLM 已经知道的,你不需要重复;LLM 还不知道的,才是你的战场。

常见误区

误区一:内容越长,信息增益越高

恰恰相反。Google 2026 年 2 月的更新已经明确释放了信号:冗长但缺乏新信息的内容(典型的 Skyscraper 策略产物)正在被降权。信息增益是密度指标,不是体积指标。一篇 800 字但包含独家实验数据的文章,增益分可能远高于一篇 5000 字的 "终极指南"。

误区二:加几句 "个人观点" 就算有信息增益

Google 专利衡量的是结构性的新增信息——新的数据点、新的因果关系、新的方法论、新的反例。"我觉得这个趋势很重要" 不是增益,"我们在 50 个客户账号中测试后发现转化率差异为 23%" 才是。增益需要可验证的具体性,不是主观感想。

误区三:信息增益只跟文字内容有关

专利中提到的 "文档" 是广义的——包括图片、视频、结构化数据。一张原创的流程图、一个独家的对比测试截图、一份自制的行业数据表格,都是文字之外的增益来源。在 AI 越来越擅长解析多模态内容的今天,非文本形式的原创信息往往更难被复制,增益的 "护城河" 更深。

实操清单

如果你是 CMO / 决策层

  • 将 "信息增益率" 纳入内容 KPI:要求内容团队在每篇文章的 brief 中标注至少 3 个 "增益点"——你有而竞争对手没有的信息。没有增益点,不批准选题。
  • 投资一手数据资产:客户调研、产品使用数据、行业访谈——这些是 AI 无法凭空生成的内容原料。它们的价值正在指数级增长。

如果你是 SEO / 技术执行层

  • 做竞品增益审计:对目标关键词排名前 10 的页面做内容摘要,找出它们的共同点(共识区)和各自的独特点(增益区)。你的内容必须在共识区之外开辟新的增益区。
  • 部署 "共识检测" 流程:在内容生产 SOP 中加入 "LLM 扫描" 环节——用 AI 工具确认当前话题的共识状态,确保产出的每篇内容都在共识之上叠加新信息。
  • 优化信息密度而非篇幅:审查现有内容库,删减纯粹重复共识的段落。Google 的算法越来越倾向于奖励 "精准打击" 而非 "地毯式轰炸"。
  • 用结构化数据标注原创内容:对独家数据、原创研究、案例分析使用 ClaimReview 或 Dataset 等 Schema 标记,帮助搜索引擎识别你的增益贡献。

如果你是内容团队

  • 执行 "先问 AI 再动笔" 工作流:参照上文翼果观察中的 5 步流程,将 LLM 共识扫描作为每篇文章的第一步。
  • 积累 "增益素材库":每次做客户访谈、产品测试、数据分析时,把独家发现存入团队知识库。写文章时直接调用,而不是临时去编 "独特观点"。
  • 把增益内容前置:你最有价值的独家信息应该出现在文章的前 300 字以内。这既符合读者的扫描习惯,也匹配 AI 摘要提取的优先级逻辑。

相关术语

参考来源

  1. Google LLC, "Contextual Estimation of Link Information Gain," 美国专利 US20200349181A1, 2020 年 11 月. 链接
  2. Claude E. Shannon, "A Mathematical Theory of Communication," Bell System Technical Journal, 1948 年.
  3. Roger Montti, "Google's Information Gain Patent For Ranking Web Pages," Search Engine Journal, 2024 年. 链接
  4. Jeff Coyle, "Information gain in SEO: What it is and why it matters," Search Engine Land, 2024 年. 链接
  5. Ryan Law, "Information Gain: The SEO Theory that AI Made Mandatory," Animalz. 链接
  6. Brian Dean, "Information Gain: How Top Content Leaders Win at SEO," Backlinko. 链接
  7. Clearscope, "Information Gain in SEO: The Guide to Rethink Current Strategies." 链接
  8. Semrush, "What Is Information Gain in SEO & Does Google Measure It?" 链接

在AI里面继续讨论: