Claude出了MCP, 与Function Calling区别?

筋斗云SEO数据研究团队
筋斗云SEO数据研究团队
发布于 2024-11-27 / 142 阅读
1

总结:MCP是一个数据接口标准,可以让大模型直接接触数据,而不通过API,并且可以跨模型使用。概念很好,但实际体验持保留意见。

为什么Anthorpic要推出MCP? 类似于 Nvidia 通过 CUDA 平台构建 GPU 生态系统,在 AI 时代成为了 GPU 霸主股价飞升,估计 Anthropic 也希望通过 MCP 来建立以后的 AI 接口标准。

MCP和Function Calling有什么区别?

跟 GraphQL 和 RPC 的概念有点像,MCF 提供了一种灵活和高效的数据交换方式,支持跨系统通信和数据交换,或者说简化了分布式系统的开发Function Calling适合简单任务,MCP更适合跨系统、跨工具的复杂场景,通过协议标准化降低长期生态开发成本,实现数据共享与上下文协同的高级功能。

1. 从功能到场景:

  • Function Calling: 其核心在于 "调用",强调单次任务的执行。它像一个工具箱,每个工具 (函数) 对应一个特定功能。开发者需要为每个工具编写适配接口,以便模型调用。这适用于独立的任务,例如查询天气、获取股票信息、翻译文本等。

    • 优点: 简单易用,开发成本低。

    • 缺点: 缺乏上下文管理,难以处理复杂的多步骤任务。

  • MCP: 其核心在于 "连接",强调持续的上下文管理和多系统协同。它像一个中央枢纽,将模型与各种数据源和工具连接起来,形成一个完整的生态系统。MCP 定义了标准化的协议,使得数据可以在不同模型和工具之间流动,并保持上下文状态的共享。这适用于需要长期交互和处理复杂数据依赖的场景,例如项目管理、客户关系管理、代码开发等。

    • 优点: 能够处理复杂场景,促进生态协同,减少开发成本。

    • 缺点: 实现较为复杂,需要更多的前期投入。

2. 上下文管理的重要性:

  • 复杂场景通常涉及多个步骤和多个系统的数据交互,需要模型能够理解和记忆之前的交互历史,并在后续操作中保持一致性。例如,在项目管理中,模型需要记住项目的进度、成员、任务等信息,才能进行有效的协作。

  • Function Calling 缺乏上下文保留机制,每次调用都是独立的,无法满足复杂场景的需求。而 MCP 通过持续的上下文管理,使得模型能够 "记住" 之前的交互,并在后续操作中利用这些信息,从而更好地完成复杂任务。

3. 生态协同的价值:

  • MCP 通过标准化的协议,实现了模型和工具之间的互联互通,促进了生态系统的协同发展。当前各个 AI 可能都有自己的接口标准,如果MCP 推广开来,开发者只需一次开发,就能让自己的工具或服务兼容所有支持 MCP 协议的模型和客户端,大大降低了开发成本,也加速了 AI 应用的普及。

  • 想象一下,未来的 AI 应用就像乐高积木一样,可以自由组合和扩展。开发者可以将各种工具和服务 "插入" 到 MCP 生态中,用户可以根据自己的需求选择和组合不同的 AI 应用,从而创造出无限的可能性。

表格对比:

特性

模型上下文协议 (MCP)

函数调用

数据访问

持续的、上下文感知的多系统访问

单个的、结构化的 API 调用

实现方式

基于服务器的架构,提供 SDK

直接 API 集成

上下文保留

跨工具维护上下文

仅限于单次交互

Claude原文:介绍Model Context Protocol

原文链接:Introducing the Model Context Protocol

今天,我们开源了模型上下文协议(MCP),这是一种新标准,旨在连接 AI 助手与数据存储系统(如内容存储库、业务工具和开发环境)。其目标是帮助前沿模型生成更精准、更相关的响应。

随着 AI 助手被广泛采用,业界对模型能力投入了大量资源,推动了推理和质量的快速提升。然而,即便是最先进的模型也面临数据隔离的限制——深陷于信息孤岛和传统系统之中。每新增一个数据源都需要定制化实现,使得真正互联的系统难以扩展。

MCP 提供了一个通用开放标准,用于连接 AI 系统与数据源,用单一协议取代分散的集成方式,简化流程,提供可靠的数据访问。

模型上下文协议

模型上下文协议是一种开放标准,帮助开发者构建安全的双向连接,在数据源与 AI 工具之间传输数据。其架构简单:开发者既可以通过 MCP 服务器公开数据,也可以构建 AI 应用程序(MCP 客户端)连接这些服务器。

今天,我们推出了 MCP 的三大核心组件:

Claude 3.5 Sonnet 可以快速构建 MCP 服务器,让组织和个人轻松快速地将其重要数据集与 AI 工具连接。我们还提供了针对 Google Drive、Slack、GitHub、Git、Postgres 和 Puppeteer 等企业系统的预构建 MCP 服务器,帮助开发者快速上手。

早期采用者如 Block 和 Apollo 已将 MCP 集成到其系统中,而 Zed、Replit、Codeium 和 Sourcegraph 等开发工具公司也在使用 MCP 提升其平台功能,帮助 AI 智能体更高效地检索相关信息,从而深入理解任务背景,生成更优质的代码,减少尝试次数。

“在 Block,开源不仅是一种开发模式,更是我们工作的核心,是为所有人创造有意义变革并作为公共资源的承诺,”Block 首席技术官 Dhanji R. Prasanna 表示。“像模型上下文协议这样的开放技术是连接 AI 与现实应用的桥梁,确保创新具有可访问性、透明性,并根植于协作中。我们期待参与该协议,并通过它构建智能化系统,让人们从机械负担中解放,专注于创造性工作。”

开发者无需再为每个数据源维护独立连接器。随着生态系统的发展,AI 系统将在工具和数据集之间保留上下文,从而替代当前分散的集成模式,建立更可持续的架构。

入门指南

开发者现在即可开始构建和测试 MCP 连接器。现有的 Claude for Work 用户可以在本地测试 MCP 服务器,将 Claude 连接到内部系统和数据集。我们很快将推出开发工具包,用于部署远程生产级 MCP 服务器,以服务整个 Claude for Work 组织。

以下是开始构建的步骤:

一个开放的社区

我们致力于将 MCP 打造成一个协作的开源项目和生态系统,并热切期待您的反馈。无论您是 AI 工具开发者、希望利用现有数据的企业,还是探索前沿技术的早期采用者,我们诚邀您共同构建上下文感知 AI 的未来。