MUM(Multitask Unified Model,多任务统一模型)是 Google 于 2021 年推出的下一代搜索 AI 模型。它基于 T5 架构,能同时处理文本和图像,跨越 75 种语言迁移知识,被 Google 定义为 "比 BERT 强 1000 倍" 的搜索理解引擎。MUM 的目标不是回答一个问题,而是理解一整个任务。
- 首次预览
- 2021 年 5 月(Google I/O 大会)
- 多语言覆盖
- 75 种语言间知识迁移
- 多模态能力
- 文本 + 图片(未来扩展至音频与视频)
- 当前状态
- 逐步部署中,已用于疫苗搜索、Google Lens、"Things to know" 等场景
发布背景 — 复杂搜索的痛点积攒到了极限
2021 年之前,Google 的搜索系统已经很聪明了。RankBrain 能处理从未见过的查询,BERT 能读懂句子的语境。但用户面对的现实问题依然棘手:完成一个复杂任务,平均需要 8 次搜索。
Google 在 I/O 大会上举了一个经典例子:你爬过亚当斯山,现在想去爬富士山,想知道需要做什么不同的准备。这个问题背后涉及海拔对比、天气差异、装备建议、签证政策——传统搜索引擎需要你把一个大问题拆成十几个小查询,逐一搜索,自己拼凑答案。
另一个痛点是跨语言信息隔阂。关于富士山的最权威信息大量存在于日语内容中,但英语用户根本触达不到。BERT 虽然支持多语言,但它的能力仅限于 "在某种语言内理解语境",无法真正实现跨语言的知识迁移。
Google 需要的不是一个更好的 "语言理解器",而是一个能理解整个任务、跨语言寻找答案、同时处理多种信息格式的 AI 模型。这就是 MUM 诞生的背景。
核心能力 — 四大支柱撑起 "搜索大脑"
1. 多任务处理(Multitask)
MUM 的名字以 "M" 开头,第一层含义就是多任务。它不是一个只做一件事的模型——它可以同时理解查询意图、分析网页内容、生成文本摘要、跨语言翻译、判断图片含义。这些任务在同一个模型内完成,不需要多个系统串联。
传统架构中,Google 需要一个系统理解查询,另一个系统分析网页,再一个系统生成摘要。MUM 把这些能力整合到了一个统一模型中,大幅减少了信息在系统间传递时的损耗。
2. 多语言理解(Multilingual)
MUM 在 75 种语言上训练,并且具备跨语言知识迁移的能力。这意味着什么?当一个英语用户搜索关于富士山的问题时,MUM 可以去日语内容中寻找答案,然后用英语呈现给用户。
这不是简单的 "翻译"。MUM 是在语义层面理解不同语言的内容,然后把知识从一种语言迁移到另一种语言。一个日语网页上关于富士山装备的专业建议,MUM 能理解其语义并将其与英语查询关联起来。
3. 多模态(Multimodal)
MUM 不只处理文字,还能理解图片。Google 给出的设想:你拍一张自己登山靴的照片,问 "这双鞋能爬富士山吗?"MUM 能识别鞋子的类型、分析其适用场景,结合富士山的路况信息给出建议。
这种 "文本 + 图像" 的联合理解能力,是 BERT 完全不具备的。未来 MUM 还计划扩展到音频和视频的理解,但目前已落地的主要是文本与图片的多模态处理。
4. T5 架构基础
MUM 构建在 Google 的 T5(Text-to-Text Transfer Transformer)架构之上。与 BERT 最大的区别在于:BERT 只能 "理解" 文本(编码器),而 T5 同时具备理解和生成的能力(编码器 + 解码器)。这意味着 MUM 不仅能读懂你的问题和网页内容,还能主动生成回答。
这个特性让 MUM 成为 Google 后来推出 AI Overviews 等生成式搜索功能的重要技术基础之一。
MUM vs BERT — 从 "理解语境" 到 "理解任务"
很多人会问:MUM 是 BERT 的替代品吗?答案是不完全是。两者解决的问题层次不同。
| 维度 | BERT | MUM |
|---|---|---|
| 核心能力 | 理解查询的语境 | 理解用户的整个任务 |
| 语言处理 | 单语言内理解语义 | 75 种语言间知识迁移 |
| 模态 | 仅文本 | 文本 + 图片(可扩展) |
| 功能方向 | 仅理解(编码器) | 理解 + 生成(编码器 + 解码器) |
| 架构 | Transformer Encoder | T5 (Text-to-Text) |
| 部署范围 | 几乎所有搜索查询 | 特定场景逐步部署 |
用一句话总结:BERT 解决了 "搜索引擎能不能读懂这句话" 的问题,MUM 解决的是 "搜索引擎能不能理解你到底想完成什么" 的问题。
但需要注意一个关键事实:截至 2026 年,BERT 仍然是 Google 常规有机排名的核心语义引擎之一,处理着几乎所有搜索查询。MUM 目前仅用于特定功能和场景,并未广泛替代 BERT 在基础排名中的作用。
实际应用 — MUM 已经在哪些地方工作了
COVID 疫苗搜索优化
这是 MUM 最早的公开应用。2021 年,全球各地对 COVID 疫苗的叫法千差万别——仅疫苗名称的变体就超过 800 种,分布在 50 多种语言中。传统方法需要数周人工整理,MUM 在几秒内就完成了识别和映射,让 Google 能快速为全球用户提供准确的疫苗信息。
Google Lens 集成
MUM 的多模态能力在 Google Lens 中得到了实际应用。用户可以拍照并用文字补充问题,MUM 同时处理图像和文本,给出综合性的回答。比如拍摄一个损坏的自行车零件并问 "怎么修",MUM 能识别零件类型并提供维修指南。
"Things to know" 模块
Google 搜索结果中的 "了解要点" 模块背后就有 MUM 的身影。当你搜索一个广泛话题时,MUM 能识别出这个话题下用户最可能想了解的多个子话题,并组织成结构化的信息模块。这本质上就是 MUM "理解整个任务" 能力的产品化体现。
与 AI Overviews 的关系
Google 的 AI Overviews(AI 概览)代表了搜索从 "返回链接" 到 "直接给答案" 的转型。MUM 的多任务理解和内容生成能力,为这一转型提供了关键的技术基础。虽然 AI Overviews 目前主要由 Gemini 驱动,但 MUM 在搜索理解层面的贡献仍然存在——它帮助 Google 更好地理解复杂查询背后的完整意图。
翼果观察 — MUM 是 "答案引擎" 的技术跳板
翼果独家观察(2026 年 3 月)
MUM 的意义不在于它自身部署了多少搜索查询,而在于它标志着 Google 从 "搜索引擎" 到 "答案引擎"的技术拐点。在 MUM 之前,Google 的 AI 能力集中在 "理解"——理解词义、理解语境。MUM 第一次让 Google 拥有了 "理解 + 生成" 的双向能力,这正是后来 AI Overviews 和 GEO(生成式引擎优化)得以存在的技术前提。
对跨境 SEO 从业者来说,MUM 的多语言知识迁移能力意味着一个深远的变化:你的中文内容,有可能被 MUM 用来回答英文查询。如果你在某个垂直领域拥有高质量的中文内容,MUM 有能力识别其语义价值并将其呈现给其他语言的用户。反过来也成立——英语世界的权威内容也可能影响你的中文搜索排名。
这意味着语言不再是内容价值的边界。对于同时运营多语言站点的企业来说,内容质量的标准应该是全局统一的,而不是 "中文站随便写写、英文站认真做"。MUM 时代,内容质量的洼地会被跨语言比较暴露出来。
优化建议 — 面向 MUM 时代的内容策略
和 BERT 一样,你无法直接 "针对 MUM 优化"。但你可以让你的内容更好地被 MUM 理解和利用:
- 覆盖完整任务,而非单一关键词:MUM 理解的是 "任务" 而非 "查询"。围绕一个主题,覆盖用户可能需要的所有子话题,构建深度的主题集群(Topic Cluster)
- 重视多语言内容一致性:如果你有多语言站点,确保各语言版本的内容质量一致。MUM 会跨语言评估,劣质翻译不再只是 "看起来不专业",而是可能影响全局排名
- 为图片提供丰富上下文:MUM 能理解图片,但它也依赖图片周围的文本来建立关联。使用描述性的 alt 属性、图片说明(caption)、以及与图片紧密相关的正文内容
- 拥抱语义搜索思维:MUM 继承并放大了 BERT 的语义理解能力。实体关系、概念网络、主题权威性——这些比关键词密度重要一百倍
- 关注答案引擎优化(AEO):MUM 的生成能力意味着它需要高质量的 "答案原料"。结构化的回答、清晰的因果逻辑、有据可查的数据——这些都是 MUM 偏爱的内容特征
相关算法
- 谷歌算法更新总览 — 从 PageRank 到 AI 搜索的完整进化史
- Google BERT — MUM 的 "前辈",语义理解的基石
- Google RankBrain — 搜索 AI 化的起点
- Google Hummingbird — 语义搜索的早期框架
- Helpful Content Update — 内容质量标准的全面升级
跨栏目:
- Semantic Search(语义搜索) — MUM 多语言语义理解的应用场景
- AI Overviews(AI 概览) — MUM 技术能力的产品化延伸
- GEO(生成式引擎优化) — MUM 生成能力催生的新优化范式
- AEO(答案引擎优化) — 面向 MUM 和 AI 搜索的内容优化策略