Linus
Linus

原文发布于

2026年02月26日

/

最新更新于

2026年02月26日

/

阅读

9
0

LLM Perception Drift — 大模型认知偏移

大型语言模型在一段时间内,对某个品牌的理解、描述和推荐倾向所发生的渐进式变化——这种变化往往独立于品牌自身的营销努力。

关键数据点:2025 年 9-10 月,Slack 在主流 AI 模型中的品牌得分骤降 -8.10,而 Atlassian 同期飙升 +5.50——仅一个月的时间差。(来源:Previsible / Evertune)

2026 趋势信号:Gartner 预测,到 2026 年底将有 30% 的品牌认知由生成式 AI 内容塑造,而非传统媒体。认知偏移正从 "技术现象" 升级为 "品牌生存问题"。

谁需要关注:CMO / 品牌总监 / SEO 负责人 / 数字营销策略师

这个概念从哪来

"LLM Perception Drift" 这个术语由 Previsible 公司 CEO Jordan Koene 在 2025 年 12 月的一篇 Search Engine Land 文章中正式提出。但它的技术根基可以追溯得更远。

2023 年,斯坦福大学和 UC Berkeley 的联合研究团队(Chen, Zaharia, Zou)首先发现了 "LLM Drift" 现象——同一个大模型在不同时间对相同问题给出截然不同的回答。当时的关注点还停留在模型性能层面:GPT-4 解数学题的准确率从 97.6% 跌到了 2.4%,研究者们觉得这主要是个工程问题。

到了 2025 年下半年,事情变了。随着 ChatGPT、Perplexity、Claude 的月活用户突破 4.5 亿,越来越多的消费者开始用 AI 做购买决策。Koene 敏锐地意识到:模型的 "漂移" 不只是技术 bug,它直接决定了品牌在 AI 回答中是被推荐还是被遗忘。于是他把 "drift" 从技术术语重新定义为一个品牌战略指标——不是模型能力的衰退,而是模型对品牌认知的偏移。

学术界也在同步跟进。2025 年 10 月,TechRxiv 上发布了一篇系统性综述《A Survey of Temporal Drift in Large Language Models》,将时序偏移分为三类:语言漂移(语言使用模式变化)、知识漂移(事实信息过时)、分布漂移(输入数据特征变化)。这篇论文的核心结论令人警醒:"语言作为一个活的系统,意味着训练时编码的知识和模式,会随着时间推移与现实世界日益脱节。"

它到底怎么运作

要理解认知偏移,先想象一个类比:大模型的 "品牌记忆" 就像一张不断被涂改的素描画。每次模型重新训练或接入新数据,画布上的某些笔触会被加深,某些会被覆盖,某些会模糊。没有人故意篡改,但画出来的肖像已经不像本人了。

偏移的驱动机制主要有四个:

  • 训练语料更新:模型持续摄取新的互联网内容。如果近期关于某品牌的讨论以负面新闻为主,模型的 "印象" 就会随之偏转。
  • 微调与对齐周期:每次模型升级(如 GPT-4 到 GPT-4o),内部参数会大规模调整。品牌在旧版本中建立的 "认知锚点" 可能在新版本中被稀释。
  • 类别纠缠(Category Entanglement):这是 Previsible 发现的关键模式。当 "项目管理" 这个类别在 AI 语境中逐渐与 "数字化转型""企业生产力" 合并时,拥有跨产品生态的 Atlassian 获得了更丰富的语义关联,而功能单一的 Trello 被边缘化了。
  • 数据质量污染:arXiv 上一篇名为《LLMs Can Get "Brain Rot"!》的论文用实验证明,持续接触低质量文本(如垃圾推文)会导致模型推理能力不可逆地下降——即使后续用干净数据修复,也无法完全恢复基线水平。

Previsible 用 Evertune 平台对此做了量化追踪。他们在 "项目管理软件" 这个类别中,测量了各品牌在主流 AI 模型输出中的得分变化:

品牌 2025 年 9-10 月得分变化 趋势解读
Slack -8.10 从 "协作工具代名词" 滑向边缘
Trello -5.59 轻量工具在 "企业级" 语境中失去存在感
Atlassian +5.50 跨产品生态带来语义关联密度优势
Celoxis +5.17 长尾品牌的逆袭——细分领域的精准语义锚定
Monday.com -0.78 品牌虽大,但语义护城河不深

一个月之内,Slack 和 Atlassian 之间的认知差距拉开了 13.6 分。这种速度在传统品牌认知调研中几乎不可想象——消费者对品牌的印象通常需要数年才会发生显著迁移。但在 AI 的参数空间里,一切都在加速。

翼果观察:中国品牌面临 "存在性鸿沟"

2025 年 12 月发表的一篇学术论文(arXiv 2601.00869)测试了 GPT-4o、Claude、Gemini 与通义千问、DeepSeek、豆包六个模型对 30 个品牌的提及情况。结果发现:中国 LLM 的品牌提及率比国际 LLM 高出 30.6 个百分点(88.9% vs 58.3%)。更极端的案例是芝麻边界(OmniEdge)——在中国模型中的提及率为 65.6%,在国际模型中为 0%。

这意味着,对于中国品牌而言,认知偏移不仅是 "印象变好还是变坏" 的问题,更可能是 "在某些模型中根本不存在" 的问题。论文作者将此称为 "存在性鸿沟"(Existence Gap)——训练语料的地理分布,而非语言本身,决定了品牌在 AI 世界中的生死。

常见误区

误区一:认知偏移是一次性事件,修复一次就行了

实际情况:偏移是持续且动态的。Google DeepMind 2025 年的研究表明,仅需三次间隔呈现一个异常样本,就足以在模型中产生可检测的 "启动效应"——新学到的事实会不当地渗透到无关的上下文中。品牌的 "叙事维护" 不是一次性工程,而是持续的卫生习惯。

误区二:只要传统 SEO 排名好,AI 里的认知就不会差

实际情况:LLM 的推荐逻辑与搜索排名有关但不等同。Evertune 的数据显示,Celoxis(一个大多数人没听过的项目管理工具)得分飙升 +5.17,而知名度远高的 ClickUp 反而下降 -0.74。AI 更看重的是语义密度和实体关联的清晰度,而非外链数量。

误区三:这只影响英文市场,跟中国品牌关系不大

实际情况:恰恰相反。中国品牌面临的偏移风险更大——既要应对国际 LLM 中的 "存在性鸿沟",又要处理国内 LLM(如 DeepSeek)因审查机制和训练数据偏差带来的独特漂移模式。一项研究(arXiv 2512.13723)甚至发现部分中国 LLM 存在 "Made in China, Thinking in America" 的悖论——因英文训练数据占主导,模型价值观偏向美国。这对品牌本土化叙事构成了隐性威胁。

实操清单

如果你是 CMO / 决策层

  • 立即建立 AI 认知基线:用同一组 prompt 在 ChatGPT、Claude、Gemini、DeepSeek 中查询你的品牌,记录当前描述。这是你的 "零号快照",所有后续偏移都以此为参照。
  • 将 "AI 品牌信号稳定性" 纳入季度汇报指标:与传统品牌健康度追踪并行,监控品牌在 AI 输出中的月度得分变化。

如果你是 SEO / 技术执行层

  • 部署 Schema 标记强化实体身份:用 Organization、Product、FAQPage 等 JSON-LD 结构化数据,帮 AI 爬虫精准识别品牌实体及其属性关系。
  • 配置 llms.txt 文件:在网站根目录放置精选的核心页面导航,引导 AI 模型优先抓取高价值内容,减少噪音干扰。
  • 选择监测工具并启动追踪:Evertune(品牌得分追踪)、Sentaiment(Echo Score / 20+ 模型覆盖)、Otterly.AI(GEO 全平台监控)是当前三个值得评估的选项。
  • 瞄准 "250 篇文档" 阈值:行业经验表明,大约需要 250 篇高质量、语义一致的文档才能显著影响 LLM 对品牌的认知。制定内容计划时以此为量化目标。

如果你是内容团队

  • 执行 "共识检测 → 空白填补" 的写作流程:动笔前先向 AI 提问你要写的主题,确认当前 "大众共识" 是什么,然后精准地在共识空白处注入你的独家数据和专家观点。
  • 构建跨平台一致性叙事:确保品牌在自有网站、Reddit 讨论、行业媒体、新闻稿中的实体描述高度统一。AI 在综合多源信息时会交叉验证——不一致的描述会削弱信任权重。
  • 定期更新核心资产的时效性数据:在已有的高权重页面中注入最新年份的具体数据,释放 Freshness 信号,防止内容在模型眼中 "过期"。

相关术语

  • GEO(生成式引擎优化):认知偏移的 "解药"——通过系统性优化数字资产,确保品牌在 AI 生成的回答中被准确引用。
  • Information Gain(信息增益):对抗偏移的内容策略核心——只有提供净新增信息的内容才能在 AI 的语义过滤中存活。
  • AI Visibility(AI 可见性):衡量偏移后果的直接指标——品牌在 AI 响应中被提及和引用的频次。
  • llms.txt:降低偏移风险的技术手段——通过主动引导 AI 抓取高价值页面,减少模型对品牌的误读。
  • Agentic Commerce(代理式电商):认知偏移最具商业杀伤力的场景——当 AI 代理替用户做购买决策时,被偏移出推荐列表意味着直接丢失订单。

参考来源

  1. Jordan Koene, "Why LLM perception drift will be 2026's key SEO metric," Search Engine Land, 2025 年 12 月 8 日. 链接
  2. Evertune AI Brand Index, evertune.ai
  3. "A Survey of Temporal Drift in Large Language Models," TechRxiv, 2025 年 10 月. PDF
  4. "LLMs Can Get'Brain Rot'!" arXiv:2510.13928, 2025 年 10 月. 链接
  5. Google DeepMind, "Predicting and Reducing Unintended Knowledge Contamination," arXiv:2504.09522, 2025 年 4 月. 链接
  6. Huang Junyao 等, "Cultural Encoding in Large Language Models: The Existence Gap," arXiv:2601.00869, 2025 年 12 月. 链接
  7. "Made in China, Thinking in America," arXiv:2512.13723, 2025 年 12 月. 链接
  8. Andreessen Horowitz, "GEO over SEO," a16z.com

在AI里面继续讨论: